ChatGPT:两年后
追踪生成式人工智能革命的影响
生日快乐,Chatbot 先生.
今年11月30日将标志ChatGPT推出两周年纪念,这一事件在技术、社会和经济领域引起了轰动。这一里程碑开创的空间并不总是让人很容易——甚至可能无法——区分现实和期望。例如,今年英伟达在一次惊人的牛市中成为全球市值最高的上市公司。该公司制造的硬件被ChatGPT等模型使用,现在的价值是两年前的七倍。每个人都会问一个很明显的问题:它真的值那么多吗,还是我们处于集体幻觉中?这个问题——而不是最终的答案——定义了当前的时刻。
人工智能正在股市引起轰动。上个月,人工智能领域的杰出人物首次被授予诺贝尔物理学和化学奖。约翰·J·霍普菲尔德和杰弗里·E·欣顿因对神经网络发展的基础贡献而获得了物理学诺贝尔奖。在化学方面,戴米斯·哈萨比斯和约翰·贾珀因AlphaFold在蛋白质设计中的人工智能进展而受到认可。这些奖项一方面引起了惊讶,另一方面也在传统科学家中引起了可以理解的失望,因为计算方法占据了中心舞台。
In this context, I aim to review what has happened since that November, reflecting on the tangible and potential impact of generative AI to date, considering which promises have been fulfilled, which remain in the running, and which seem to have fallen by the wayside. 在这个背景下,我的目标是回顾自去年十一月以来发生的事情,反思迄今为止生成性人工智能的具体和潜在影响,考虑哪些承诺已经实现,哪些仍在进行中,哪些似乎已经被抛在了一边。
Here is the translation of "D-Day" into Simplified Chinese while maintaining the HTML structure: ```html D日 ```
让我们从回想发布当天开始。ChatGPT 3.5 是一个在话语和智能能力方面远远超过以往任何已知聊天机器人的产品。当时可能性与ChatGPT之间的差异引发了巨大的热情,这款产品迅速走红:仅用两个月就达到了1亿用户,远远超过了许多被认为是病毒级的应用(TikTok、Instagram、Pinterest、Spotify等)。它还进入了大众传媒和公众讨论:人工智能登陆主流舞台,突然间每个人都在谈论ChatGPT。最后,仅过了几个月,OpenAI 发布了GPT-4,这是一款智能远远优于3.5的模型,也能够理解图片。
哥利亚失足的那一天
就科技公司而言,过去的两年可以说是一次过山车般的经历。OpenAI的出现,以其未来主义的进步和其首席执行官的“初创企业”精神和外表,引发了对谷歌技术领导力的质疑,这在此之前一直是无可争议的。谷歌则尽全力证实这些怀疑,一再在公众场合丢脸。首先出现了巴德(Bard)的推出尴尬事情 — 这是为了与ChatGPT竞争而设计的聊天机器人。在演示视频中,该模型出现了一个事实错误:当被问及詹姆斯·韦伯太空望远镜时,它声称这是第一个拍摄到太阳系外行星的望远镜,这是错误的。这个失误导致谷歌的股价在接下来的一周里下跌了9%。随后,在展示其新的Gemini模型 — 这次是GPT-4的另一个竞争对手时,谷歌再次失去了信誉,当揭示出在演示中展示的令人难以置信的能力实际上是捏造的,基于更为有限的能力。
Sure, here's the translated text while keeping the HTML structure intact: ```html
与此同时,微软——比尔·盖茨的古老公司,曾推出过老款的Windows 95,年轻人对它的厌恶程度与对谷歌的喜爱程度一样——重新出现,联合小型的David,将ChatGPT整合到Bing中,自我呈现得灵活而叛逆。“我希望人们知道我们让他们跳舞,”微软CEO萨提亚·纳德拉提及谷歌时说道。2023年,微软焕发了青春,而谷歌却在衰老。
```这种情况持续存在,OpenAI 在技术评估和主观用户反馈(称为“感觉检查”)方面长时间保持着无可争议的领先地位,而 GPT-4 一直处于前列。但随着时间的推移,情况发生了变化,就在 GPT-4 在2022年底取得独一无二的领先地位时,到了2024年中期,它的直接继任者(GPT-4o)开始与其他同等水平的产品竞争:谷歌的 Gemini 1.5 Pro,Anthropic 的 Claude Sonnet 3.5,和 xAI 的 Grok 2。创新带来了进步,但也伴随着失去。
这种情况可能会再次改变,因为OpenAI在2024年9月宣布o1,并传言12月推出新产品。然而,目前无论o1有多好(我们稍后会谈论),它似乎并没有像ChatGPT那样造成同样的地震影响,也没有传达与竞争格局中其他产品之间不可逾越的差距的同样感觉。
为了完善对打击、倒地和史诗般的回归情景的描述,我们必须谈到开源世界。这个新的人工智能时代始于对开源社区的两次重击。首先,OpenAI,尽管其名字暗示了这一点,却是在制止公开披露基础技术进展方面的先驱。在OpenAI之前,人工智能研究的规范——至少在2022年之前的黄金时代——包括详细公布研究成果。在那个时期,主要的公司与学术界建立了积极的反馈循环并发表论文,这是之前罕见的。事实上,ChatGPT和生成式人工智能革命整体上基于谷歌2017年的一篇论文,即著名的“注意力机制就是全部你需要的”,引入了变压器神经网络架构。这种架构支撑着所有当前的语言模型,并且是GPT中的“T”的来源。在一个戏剧性的情节转折中,OpenAI利用了谷歌的这一公开发现,获得了优势,并开始进行闭门研究,GPT-4的推出标志着这两个时代之间的转折点: OpenAI对这一先进模型的内部工作原理一无所知。从那一刻起,许多封闭的模型,如Gemini 1.5 Pro和Claude Sonnet开始出现,从根本上转变了研究生态系统,状况更加糟糕。
Here’s the translation of your text into Simplified Chinese while keeping the HTML structure intact: ```html The second blow to the open-source community was the sheer scale of the new models. 第二次打击开源社区的是新模型的庞大规模。 Until GPT-2, a modest GPU was sufficient to train deep learning models. 直到GPT-2,一台普通的GPU足以训练深度学习模型。 Starting with GPT-3, infrastructure costs skyrocketed, 从GPT-3开始,基础设施成本飙升, and training models became inaccessible to individuals or most institutions. 训练模型变得对个人或大多数机构无法企及。 Fundamental advancements fell into the hands of a few major players. 基础性的进展掌握在少数几家大玩家手中。 ```
Here’s the translation of your text into Simplified Chinese while keeping the HTML structure intact: ```html 但是在这些打击之后,随着每个人都预期会发生一场技术淘汰赛,开源世界奋力反击,并证明了自己能够迎接挑战。为了所有人的利益,它有了一个出乎意料的冠军。马克·扎克伯格,地球上最令人憎恨的爬虫人类机器人,通过将自己定位为开源和自由的旗手,在生成性AI领域做出了彻底的形象改变。Meta,这个根据自身设计和意愿控制着西方大部分数字通信网络的跨国集团,承担了将开源引入LLM时代的任务,推出了LLaMa系列模型。对于道德绝对主义者来说,显然现在是一个糟糕的时机。LLaMa系列最初采用的是谨慎的开源许可证和有限的能力(尽管社区做出了重大努力试图相信不然)。然而,随着最近发布的LLaMa 3.1和3.2,开源模型与私有模型之间的差距开始显著缩小。这使得开源世界和公共研究能够继续保持在技术创新的前沿。 ``` Let me know if you need further adjustments!
技术进步
Here is the translation of your text into simplified Chinese while keeping the HTML structure intact: ```html
在过去两年里,关于类ChatGPT模型(被称为大语言模型,LLMs)的研究取得了显著进展。第一个被普遍接受的基础性突破是,各大公司成功地扩展了模型的上下文窗口(即模型可以读取的输入词数和生成的输出词数),同时大幅降低了每个词的成本。我们还看到了模型变得更加多模态,不仅能接受文本输入,还能处理图像、音频和视频。此外,它们还被赋予了使用工具的能力——最显著的是,能够进行互联网搜索——并且在整体能力上不断提升。
``` Let me know if you'd like any adjustments!在另一个方面,出现了各种量化和提炼技术,使得能够将庞大的模型压缩成较小的版本,甚至在台式计算机上运行语言模型(尽管有时会导致性能下降得无法接受)。这种优化趋势似乎走在积极的轨迹上,让我们更接近最终能在智能手机上运行的小型语言模型(SLMs)。
Here’s the translation in Simplified Chinese, keeping the HTML structure intact: ```html On the downside, no significant progress has been made in controlling the infamous hallucinations — false yet plausible-sounding outputs generated by models. Once a quaint novelty, this issue now seems confirmed as a structural feature of the technology. For those of us who use this technology in our daily work, it’s frustrating to rely on a tool that behaves like an expert most of the time but commits gross errors or outright fabricates information roughly one out of every ten times. In this sense, Yann LeCun, the head of Meta AI and a major figure in AI, seems vindicated, as he had adopted a more deflationary stance on LLMs during the 2023 hype peak. 在另一方面,控制臭名昭著的幻觉——模型生成的错误但听起来合乎逻辑的输出——方面并未取得显著进展。曾经是一个别致的创新,这个问题现在似乎已经被确认是该技术的一个结构性特征。对于我们这些在日常工作中使用这项技术的人来说,依赖一个大部分时间表现得像专家的工具,却每十次中大约有一次会犯严重错误或彻底捏造信息,实在让人沮丧。从这个角度来看,Meta AI 负责人、人工智能领域的主要人物 Yann LeCun 似乎得到了证明,因为在 2023 年的炒作高峰期,他对大型语言模型(LLMs)采取了更加低调的态度。 ``` This translation keeps the original HTML structure intact and conveys the meaning of the text in Simplified Chinese. Let me know if you need any further adjustments!
```html 然而,指出大型语言模型(LLMs)的局限性并不意味着关于它们的能力或它们可能带我们去何处的争论已经解决。例如,山姆·奥特曼(Sam Altman)认为,目前的研究计划在达到瓶颈之前仍有很多潜力,而市场,如我们稍后将看到的,似乎也同意这一观点。在过去两年中,我们所见到的许多进展支持了这种乐观情绪。OpenAI推出了其语音助手,以及一个能够进行近实时互动、具有中断能力的改进版本——类似于人类对话而非轮流发言。最近,我们看到LLMs首次先进尝试访问和控制用户计算机,这在尚未发布的GPT-4o演示中以及可供最终用户使用的Claude 3.5中得到了展示。虽然这些工具仍处于起步阶段,但它们为我们近未来的可能景象提供了一瞥,届时LLMs将具有更大的主动性。同样,在软件工程自动化方面也有许多突破,以德文(Devin)作为首个“人工软件工程师”等颇具争议的里程碑为例。尽管该演示受到严厉批评,但尽管存在炒作,这一领域已显示出不可否认的、重大进展。例如,在用于评估人工智能模型解决软件工程问题能力的SWE-bench基准中,年初最好的模型只能解决不到13%的练习。截至目前,该数字已超过49%,这为目前的研究计划增强LLMs的规划和复杂任务解决能力提供了信心。 ```
Here's the translation into simplified Chinese, keeping the HTML structure intact: ```html 沿着相同的思路,OpenAI 最近宣布的 o1 模型标志着一条具有重大潜力的新研究方向,尽管目前发布的版本(o1-preview)与已经知道的内容相差不远。事实上,o1 基于一个新颖的理念:利用推理时间——而非训练时间——来提高生成回答的质量。通过这种方法,模型并不是立刻生成最可能的下一个单词,而是具备“暂停思考”后再作出回应的能力。公司的一位研究人员指出,最终这些模型可能在生成回答之前,使用数小时甚至数天的计算时间。初步结果激发了人们的高度期待,因为之前并未认为利用推理时间来优化质量是可行的。我们现在期待这一系列后续模型(o2、o3、o4)能够验证它是否像现在看起来那样充满前景。 ```
除了语言模型,在其他领域也取得了巨大的进步。首先,我们必须提到图像生成。文本到图像模型在聊天机器人之前就开始受到关注,并以加速的步伐继续发展,扩展到视频生成。该领域随着OpenAI的Sora的推出达到了高潮,这是一个能够生成极高质量视频的模型,尽管它尚未发布。稍微不那么为人所知但同样令人印象深刻的是音乐生成方面的进展,如Suno和Udio平台,以及声音生成方面的进步,经历了一场革命并达到了非常高的质量标准,由Eleven Labs领导。
毫无疑问,对于我们这些从事这一领域的人来说,过去两年是技术进步和几乎每天创新的激烈时期。
市场繁荣
如果我们把注意力转向这一现象的财务方面,我们会看到大量资本不断被投入到人工智能领域。我们目前正处于人工智能的热潮之中,没有人想落后于这项技术,而其发明者谦逊地将其比作了蒸汽机、印刷术或互联网。
```html
值得注意的是,在这场狂热中获利最多的公司并不出售人工智能,而是销售作为其基础设施的硬件,这与古老的格言相吻合:在淘金热期间,一个致富的好办法是卖铲子和锤子。正如前面提到的,英伟达已成为全球价值最高的公司,市值达到了3.5万亿美元。对此,35,000,000,000,000这个数字远远超过了法国的GDP。
```另一方面,如果我们看一下市值最高的上市公司名单,我们会发现部分或全部与人工智能承诺相关的科技巨头主导了榜单。截止本文撰写日期,苹果、英伟达、微软和谷歌是前四名,其市值总额超过12万亿美元。作为参考,2022年11月,这四家公司的市值总额不到这个数值的一半。与此同时,硅谷的生成式人工智能初创公司正在吸引创纪录的投资。人工智能市场看涨。
```html
尽管技术迅速发展,生成性人工智能的商业模式——除了主要的大型语言模型提供商和一些特定案例——仍不明朗。随着这种乐观的狂潮持续,一些声音,包括最近获得经济学诺贝尔奖的达龙·阿塞莫格鲁,对人工智能是否能合理化投入的巨额资金表示怀疑。例如,在这次彭博社的采访中,阿塞莫格鲁认为,当前的生成性人工智能在未来十年内只能自动化现有任务的不到5%,这使得它不太可能引发投资者所期待的生产力革命。
```这是人工智能狂热,还是人工智能狂热幻觉?目前,牛市行情没有任何停止的迹象,就像任何泡沫一样,在事后容易识别。但是在其中的时候,不清楚是否会有一次调整,以及何时可能发生。我们是在一个即将爆炸的泡沫中,正如Acemoglu所认为的那样,还是像一位投资者建议的那样,Nvidia正朝着成为一家市值50万亿美元公司的方向发展?这是一个价值百万美元的问题,遗憾的是,亲爱的读者,我不知道答案。一切似乎表明,就像在互联网泡沫时期一样,我们将从这种情况中走出来,一些公司将乘风破浪,而许多公司则将陷入困境。
Sure! Here is the translation while keeping the HTML structure: ```html
社会影响
``````html
让我们现在讨论生成性人工智能到来所带来的更广泛的社会影响。与其推出之前社会所知的技术水平相比,ChatGPT 所代表的质量飞跃引起了重大轰动,开启了关于这一特定技术的机会与风险,以及更先进技术发展的潜在机会与风险的辩论。
```未来的问题 关于人工通用智能(AGI)接近人类或超人类能力的讨论在Geoffrey Hinton(现为一位物理诺贝尔奖得主)辞去在谷歌的职位以警告这种发展可能带来的风险时获得了公众关注。 存在风险——超级智能人工智能可能失控,并且可能毁灭或奴役人类——已经不再是虚构的领域,而成为一个具体的政治问题。 我们看到很多知名人士,在公开辩论中以及在美国参议院听证会中表达关切,即使他们有着温和和不激进的形象。 他们警告称,AGI可能在接下来的十年内出现,并且这将带来巨大的问题。
围绕这场辩论的紧迫性现在似乎已经消退,回想起来,2023年时人工智能通用智能(AGI)似乎比以前更遥远了。在所做出的成就发生后立即高估是很常见的,就像随着时间推移低估它们也是很常见的一样。甚至后一种现象有个名字:AI效应,即该领域的重大进展随着时间流逝失去了最初的光彩,不再被认为是“真正的智能”。如果今天生成连贯言论的能力 — 就像下棋能力一样 — 不再让人惊讶,那我们就不应被这种技术的发展时间表所分散注意力。1996 年,深蓝模型击败了国际象棋冠军加里·卡斯帕罗夫。2016年,AlphaGo 打败了围棋高手李世石。而2022年,ChatGPT 产生了高质量且表达准确的言论,甚至挑战了著名的图灵测试作为确定机器智能水平的标准。我认为,即使未来的风险看起来不再是迫在眉睫或紧迫的,维持对此类讨论的持续是重要的。否则,恐惧与平静的循环将阻碍成熟的辩论。无论是通过 o1 开辟的研究方向还是通过新的途径,很可能在未来几年内,我们会看到类似于2022年 ChatGPT 的另一个突破,因此在此之前进行相关讨论是明智的。
一个关于AGI和AI安全的独立章节涉及OpenAI的企业戏剧,堪比黄金时段的电视节目。2023年末,山姆·阿尔特曼被董事会突然罢免。尽管具体细节从未得到澄清,但阿尔特曼的反对者指出,OpenAI内部存在一种秘密文化和对AI开发安全问题的分歧。这一决定引发了OpenAI员工的立即反抗,并引起了其最大投资者微软的关注。在戏剧性的转折中,阿尔特曼被 reinstated,而罢免他的董事会成员被解雇。这场冲突在OpenAI内部留下了裂痕:AI安全研究主管扬·莱克加入了Anthropic,而OpenAI的联合创始人、AI开发的核心人物伊利亚·苏茨凯弗则离开去创办安全超级智能公司。看起来这证实了最初争端围绕着对安全重要性的重视而展开。最后,最近的传言表明OpenAI可能会失去其非营利身份,并向阿尔特曼授予股份,这引发了公司领导层内再次辞职的新潮流,并加剧了不稳定的感觉。
从技术角度来看,我们看到了Anthropic在AI安全方面取得了重大突破。该公司在LLM可解释性方面取得了基本里程碑,有助于更好地理解这些模型的“黑盒”性质。通过发现神经元的多义性特性以及提取代表概念的神经激活模式的方法,似乎已经突破了控制Transformer模型的主要障碍,至少在它们欺骗我们的潜力方面。有意改变电路以主动修改这些模型的可观察行为的能力也十分有希望,并在缩小模型能力与我们对其的理解之间的差距方面带来了一些安心。
当下的问题
除了将来人工智能及其潜在影响的问题,让我们关注生成式人工智能的实际影响。与互联网或社交媒体的出现不同,这次社会似乎反应迅速,表现出对这项新技术所带来的影响和挑战的关注。除了之前提到的存在风险的深刻辩论 — 集中在未来技术发展和进展速度上 — 现有语言模型的影响也被广泛讨论。生成式人工智能的主要问题包括增加错误信息和数字污染的恐惧,与版权和个人数据使用相关的重大问题,以及对生产力和劳动市场的影响。
Regarding misinformation, this study suggests that, at least for now, there hasn’t been a significant increase in exposure to misinformation due to generative AI. While this is difficult to confirm definitively, my personal impressions align: although misinformation remains prevalent — and may have even increased in recent years — it hasn’t undergone a significant phase change attributable to the emergence of generative AI. This doesn’t mean misinformation isn’t a critical issue today. The weaker thesis here is that generative AI doesn’t seem to have significantly worsened the problem — at least not yet. 关于虚假信息,本研究表明,至少目前,由于生成性人工智能,虚假信息的暴露并没有显著增加。虽然这很难得到确凿的确认,但我个人的印象是一致的:尽管虚假信息仍然很普遍——并且在最近几年可能甚至有所增加——但它并没有因为生成性人工智能的出现而经历显著的阶段变化。这并不意味着虚假信息在今天不是一个关键问题。这里的较弱论点是,生成性人工智能似乎并没有显著恶化这个问题——至少目前还没有。
然而,我们已经看到了一些深度伪造的案例,例如最近涉及使用真实人脸生成的人工智能色情材料的案件,以及更严重的在学校中影响青少年的案例,尤其是年轻女孩。这些案例非常严重,必须加强司法和执法系统以应对。然而,至少在初步看来,它们似乎是可以管理的,与由生成性人工智能推动的虚假信息的投机性噩梦相比,整体上代表了相对较小的影响。也许法律系统的反应时间会比我们所希望的要长,但有迹象表明,机构至少在处理未成年人色情品的深度伪造方面可能会有所作为,正如英国一名因制作和传播此类材料而被判处18年监禁的范例所示。
```html
其次,关于对劳动市场和生产力的影响——市场繁荣的反面——辩论仍未解决。尚不清楚这项技术在提高工人生产力或减少或增加就业方面的作用有多大。在线上,人们可以找到关于这项技术影响的各种观点。比如“人工智能取代任务,而不是取代人”或“人工智能不会取代你,但使用人工智能的人会”的说法,充满信心却没有任何支持证据——这讽刺地提醒我们语言模型的幻觉。确实,ChatGPT无法执行复杂任务,我们每天使用它的人都知道它的显著且令人沮丧的局限性。但同样,起草专业邮件或为特定信息审查大量文本等任务已变得更快。根据我的经验,使用像Copilot或Cursor这样的AI辅助编程环境,编程和数据科学的生产力显著提高。在我的团队中,初级职位的成员获得了更大的自主权,每个人的代码生成速度都比以前快。尽管如此,代码生产的速度可能是把双刃剑,因为一些研究表明,由生成性AI助手生成的代码质量可能低于人类在没有这种帮助时编写的代码。
```Sure! Here is the translation of your text into Simplified Chinese, keeping the HTML structure intact: ```html If the impact of current LLMs isn’t entirely clear, this uncertainty is compounded by significant advancements in associated technologies, such as the research line opened by o1 or the desktop control anticipated by Claude 3.5. These developments increase the uncertainty about the capabilities these technologies could achieve in the short term. And while the market is betting heavily on a productivity boom driven by generative AI, many serious voices downplay the potential impact of this technology on the labor market, as noted earlier in the discussion of the financial aspect of the phenomenon. In principle, the most significant limitations of this technology (e.g., hallucinations) have not only remained unresolved but now seem increasingly unlikely to be resolved. Meanwhile, human institutions have proven less agile and revolutionary than the technology itself, cooling the conversation and dampening the enthusiasm of those envisioning a massive and immediate impact. 如果当前大语言模型(LLM)的影响尚不完全明确,那么这种不确定性将因相关技术的重大进展而加剧,例如o1所开辟的研究方向或Claude 3.5预期的桌面控制。这些发展增加了关于这些技术在短期内可能实现的能力的不确定性。尽管市场对由生成性人工智能推动的生产力爆发抱有很大期望,但许多严肃的声音却淡化了这项技术对劳动力市场的潜在影响,正如我们在先前讨论这一现象的金融层面时提到的那样。从原则上讲,这项技术的最重大局限性(例如幻觉问题)不仅没有得到解决,而且似乎越来越不可能解决。与此同时,人类机构的反应速度和变革性远不及技术本身,这使得讨论逐渐冷却,并打压了那些预想这一技术带来巨大且即时影响的热情。 ```
```html
无论如何,如果工作场所的巨大革命能够实现,那么在至少过去两年中,这一承诺尚未实现。考虑到这种技术的加速采用(根据这项研究,今天超过24%的美国工人在每周至少使用一次生成式人工智能)并假设最早采用它的可能是那些获得最大利益的人,我们可以认为我们已经看到了这项技术对生产力的足够影响。就我和我团队的日常工作而言,到目前为止,生产力的影响虽然显著、可见并且有明显变化,但也显得相对适度。
```Sure, here's the translated text while keeping the HTML structure: ```html 另一个伴随生成AI兴起的主要挑战涉及版权问题。内容创作者——包括艺术家、作家和媒体公司——对他们的作品未经授权被用来训练AI模型表示不满,他们认为这侵犯了他们的知识产权。另一方面,AI公司常常争辩称,使用受保护材料来训练模型属于“合理使用”,这些模型的生产构成了合法且有创意的转化,而不是简单的复制。 ```
```html
这场冲突导致了许多诉讼,比如Getty Images起诉Stability AI未经授权使用图像来训练模型,或艺术家和作者(如Sarah Silverman)对OpenAI、Meta和其他AI公司的诉讼。另一个显著的案例涉及唱片公司起诉Suno和Udio,指控其使用受保护歌曲来训练生成音乐模型,侵犯版权。
```在这个未来主义重新解释了灵感和抄袭之间的古老界限的时代,法庭还没有明确地倾向于任何一方。虽然其中一些诉讼方面已被允许继续,其他一些已被解雇,保持着一种不确定的气氛。最近的法律文件和企业策略 - 如Adobe、谷歌和OpenAI为其客户提供赔偿 - 显示出这个问题仍未解决,目前,法律纠纷仍在进行中,没有一个明确的结论。
人工智能的监管框架也取得了显著进展,全球这一方面最显著的发展应该是欧洲联盟于2024年3月批准的人工智能法案。这项立法将欧洲定位为世界上第一个采用全面监管框架的区块,建立了一个分阶段实施系统以确保合规性,计划于2025年2月开始逐步实施。
AI法案对AI风险进行分类,禁止“不可接受的风险”案例,例如使用技术进行欺骗或社会评分。虽然一些条款在讨论过程中有所放宽,以确保所有模型适用的基本规则和在敏感环境中应用的更严格法规,但该行业对这一框架所代表的负担表示担忧。虽然AI法案不是ChatGPT的直接结果,并且在之前已经讨论过,但其批准得到了生成式AI模型突然出现和影响的加速。
```html
在这些紧张关系、机遇和挑战下,生成式人工智能的影响显然标志着社会、经济和法律领域深刻转型的新阶段的开始,而我们对其完整程度的理解只是刚刚开始。
```即将到来
Sure! Here’s the translated text while maintaining the HTML structure: ```html
我在阅读这篇文章时认为,ChatGPT 的热潮已经过去,其带来的波动效果正在平息、冷却。回顾过去两年的事件让我改变了看法:这两年是巨大的进步和快速发展的两年。
``````html
这些是令人兴奋和期待的时刻——对于人工智能而言,实际上是一个真正的春天——令人印象深刻的突破持续出现,并且有许多有前景的研究方向等待探索。另一方面,这也是充满不确定性的时刻。怀疑是否处于泡沫中,以及对重大情感和市场调整的预期都是非常合理的。但是,与任何市场调整一样,关键不在于预测它是否会发生,而在于准确知道何时发生。
```在2025年会发生什么?英伟达的股票会崩盘,还是公司将继续其牛市行情,实现在十年内成为一家50万亿美元公司的承诺?人工智能股市整体会发生什么?o1发起的推理模型研究线会怎样?它会达到一个瓶颈,还是像GPT线一样经历版本1、2、3和4的推进?控制桌面和数字环境的今天的基本LLM型代理人整体会有多大提升?
我们很快就会发现,因为那就是我们的目标。