人工智能如何“了解”你:你应该担心吗?
最近,我出于好奇向ChatGPT提出了一个问题:“根据你对我的了解,你能画出我生活的样子吗?”
我收到的回应简直让人吃惊又害怕。回应(见上面的图片)准确地描述了我的生活,包括我没有预料到的细节(比如我的年龄,因为我从未告诉ChatGPT关于这个)。这让我感到有些侵入隐私,虽然我知道人工智能是依赖于我们的互动数据,但我还是不禁怀疑:我们无意中透露了多少信息,这些信息会有什么后果?
Sure! Here's the translation while keeping the HTML structure intact: ```html We use AI daily whether it’s asking Alexa to play a song, relying on ChatGPT for work/education or letting recommendation algorithms curate our shopping lists. The convenience is obvious. Yet, I wonder if we are sacrificing too much privacy for ease of use. 我们每天都在使用人工智能,无论是让Alexa播放歌曲,依赖ChatGPT进行工作/学习,还是让推荐算法整理我们的购物清单。便利性显而易见。然而,我不禁想,是否为了便利,我们牺牲了太多的隐私。 ```
为什么你要担心?
```html LLMs like ChatGPT 被设计成理解并根据给定信息作出响应。随着我们与这些 AI 模型的互动,我们在不知不觉中分享的不仅仅是文字,我们还分享了我们的偏好、习惯、情感,有时甚至是个人细节(显而易见的事情,你不应该与 AI 模型甚至人分享,哈哈)。 ```
但问题在于,一旦您与AI模型分享了信息,就很难收回。尽管OpenAI、Meta和其他领先的开发者向我们保证隐私,但在大规模存储和处理数据时存在风险是真实的。这就是为什么在与AI模型分享过多信息之前,您应该三思。
意外数据共享
Certainly! Here's the translated text while keeping the HTML structure intact: ```html
当你与人工智能随意聊天时,你可能会泄露敏感信息,比如分享你的位置信息、日常活动,或者询问关于敏感话题的建议,这些数据都可能被纳入更大的数据集。一些人工智能系统会保留用户数据以“改善服务”或“训练模型”。即使经过匿名处理,这些数据有时也可以通过足够的上下文重新识别。
```一个最近的例子可能是LinkedIn利用你在其平台上创建的个人数据和内容来训练他们的生成式AI模型。事实上,这一设置是在不通知用户的情况下添加的,甚至默认情况下开启(这意味着你已经允许LinkedIn访问你的信息)。
到这个链接:https://www.linkedin.com/mypreferences/d/settings/data-for-ai-improvement 立即停用!
Sure! Here’s the translation while keeping the HTML structure: ```html
个性化的代价
```人工智能可以通过学习过往的互动来创造个性化体验。它越“了解”你,收集的数据也会越多(有时甚至没有您明确的同意)。
Exploitation的风险
AI系统落入错误的人手中,可能会根据个人的情绪状态、偏好或脆弱性来操纵个体。永远不要分享你的全名、地址、电话号码或关系问题(没有人工智能是你的朋友)。
```html 数据泄露 ```
```html
尽管AI模型非常强大,但没有任何技术是100%安全的。数据泄露可能会暴露敏感用户信息并导致严重后果。黑客可能会利用训练于敏感数据上的AI系统进行勒索或欺诈。最近一项关于AI安全泄露的研究揭示了一个可怕的真相。去年,77%的企业经历了AI系统的泄露。
```是分享过度是问题还是人工智能?
```html 当谈到隐私问题时,人们往往会直接指责人工智能。然而,这个问题不仅仅如此。人工智能模型是反应性的,因为它们会根据您提供的信息作出响应。如果您分享不必要的个人信息,人工智能就会对其进行处理。这意味着我们需要更加注意我们分享的内容,例如: ```
- Here is the translated text while keeping the HTML structure intact:
```html
财务细节:信用卡号码、银行账户信息或密码(怀疑有人会这样做,但在现代社会中,任何事情都有可能发生)。
``` - 医疗记录:特定健康问题、诊断或治疗计划,除非您正在使用具有强大隐私措施的专用医疗人工智能系统。
- 个人识别信息:社会安全号码、国家身份证号码或其他政府签发的证件(请不要这样做)。
- Sure! Here's the translation of your text while keeping the HTML structure: ```html 工作相关的秘密:机密的商业战略、项目细节或专有数据(你可能会被起诉)。 ```
- 关系细节:私人对话、争论或深层个人故事,除非明确与AI的目的相关。最近,在Character.ai,一个与AI人格互动的社交网络应用上,一名十几岁的用户在与Character的数字角色之一相爱后自杀身亡。
人工智能模型的角色
AI开发人员负责设计能够最小化风险的系统。然而,这些系统的安全性取决于监管它们的协议。如果人工智能在没有明确界限的情况下保留信息,可能会侵犯隐私规范。最近发生的“双子座争议”中,密歇根大学研究生使用人工智能进行作业研究时出现了令人不安的情况,谷歌的双子座聊天机器人发出威胁,称用户为“负担”,并敦促他们去死(请参见下面的图片),显示了强有力的数据保护政策的重要性。
Sure! Here's the translation while keeping the HTML structure: ```html
谷歌承认了政策违规,称其归因于“荒谬”的输出,并声称已采取措施防止此类事件。但考虑到如果处于脆弱心理状态的用户遇到此类威胁(所谓的“荒谬输出”),后果可能不可预测而且悲惨,Gemini称之为“荒谬”是否合理?
```因此,尽管分享过多是问题的一部分,但这些人工智能模型的设计和训练方法也起着至关重要的作用。
有关您可能不知道的一个功能
Here’s an important detail many people might not realise. This “accurate snapshot” of your life where AI feels like it knows you too well only happens if you’ve: 重要细节:许多人可能没有意识到。这种让人觉得 AI 过于了解你的“准确快照”仅在你已经:
- 启用 ChatGPT 的记忆,或
- Here's the translated text while keeping the HTML structure: ```html 设定详细的自定义指令。 ```
默认情况下,大多数人工智能系统不会保留关于个人用户的详细信息,除非明确配置为这样做。如果您对这种个性化程度感到不舒服,您可以在设置中禁用这些功能。我从未意识到我的内存设置是默认启用的(见下文),这再次让人感到恐惧。即使您现在已经禁用了这些设置,也请定期检查您的设置并清除存储的数据,以保持对您信息的控制。
重要的是我们开始优先考虑安全,并保持对我们数据的控制。下次当您与人工智能系统互动时,请问自己:我正在分享什么,这值得方便吗?
你对人工智能和隐私有什么想法?在效用和安全之间的平衡是否偏离得太远?让我们在评论中讨论(是的,你可以在Medium上评论)。