在人工智能时代设计社会韧性

ChatGPT中文站

即便如此,人类将严重受到无聊的疾病所困扰,这种疾病每年都在更广泛地传播和不断加剧。这将带来严重的心理、情感和社会学后果,我敢说精神病学将成为2014年远超其他医学专业的最重要的学科。那些能够参与任何类型的创造性工作的幸运少数人将是人类真正的精英,因为只有他们能做得比服务机器更多。

艾萨克·阿西莫夫在1964年8月造访2014世界博览会期间,发表了关于自动化对社会影响的看法,报道于《纽约时报》。

人工智能和自动化的进步是灾难性的,尽管它承诺提供丰富的财富和无尽的生产力,但它也带来同样严重的危险。

本文将试图探讨可能因人工智能替代工作而失去目标的人们。我们认为迫切需要着手解决这个问题,并提出了一种解决方法。

报告预测将有数亿个工作岗位[1]被失去,与此同时,工资将面临压力,因为公司将有更多选择雇用混合人工智能动力团队[2]。

职场市场上的新形势可能会破坏社会凝聚力和西方民主制度的存在。

目标感

每日常规即使许多人想要改变也很重要。在退休之前,人们应该为过渡做好准备,计划如何填补退休带来的闲暇时间。保持HTML结构。

重要的是,对于西方社会的低收入群体,退休可能带有非常少的选择,带来压力和孤独感。

另一方面,如果一个人在退休前失去了工作,强加的“空闲时间”可能会带来更严重的心理后果,包括不安全感、焦虑和绝望。

然而,失业的问题在未来几十年可能变得不那么重要,因为新兴的工业革命将会彻底改变我们的生产模式。

询问ChatGPT哪些职业最脆弱,这是它的回答:

  • 例行手动工作,例如组装线工人和司机。
  • 例行认知性工作,例如数据录入和电话营销。
  • 服务业的工作,例如零售销售和餐饮服务。
  • 金融行业的工作,如银行出纳和贷款主管。

我的个人观点是更多——如果不是所有——行业都将受到影响。随着时间的推移,只有少数劳动力部门,包括一些劳动密集型工作、护理专业人员和高度专业化的科学家(例如AI支持的研究人员,为下一代前沿技术的突破工作)可能会有就业机会。

即使是最近最受追捧的职业之一——编程人员也将受到影响,因为AI驱动的工具很快将能够接收自然语言表达的需求,并使用提示指示的语言和开发框架构建整个软件系统[3]。就像双刃剑一样,这项技术将使编程艺术实现民主化,使每个人都能够构建软件产品,同时也将使非专业编程人员过时。

ChatGPT 表示,由于人工智能和自动化的进步,将会创造新的工作,其中包括:

  • 数据科学与分析领域的工作。
  • 与AI和自动化系统的开发和维护相关的工作。
  • 由于人口老龄化和人类照顾和互动的需求,医疗保健和老年护理领域的工作正在增长。
  • 绿色技术领域的工作,如可再生能源和可持续农业。

第一和第二类工作可能只占工作总数的一小部分,而第四类本来就会存在。医疗保健和养老护理领域的工作肯定会变得更加重要,这是一个一直被忽视的部门。

了解将自己的一天填满建设性的例行公事是多么重要,现代社会将采用解决方案,例如全民基本收入【4】,但这是否将弥补失业带来的目标缺失呢?是的,人们可能有食物和住处。但是,UBI保障的生活水平能否提供我们所谓的充实的生活,提供良好的选择以有目的地度过我们的时间?或者一个新的阶级制度会出现,将金融增长的贡献者与不贡献者分开。

它的创建者可能希望相信,元宇宙可以成为解决这个社会问题的方案,提供一个虚拟丰富的生活,在那里用户可以通过他们的虚拟化身花费大部分时间,享受他们希望拥有的东西。但他们愿意放弃身体接触和人类已经珍视了几个世纪的东西吗?

肯定的是,在问题开始成形之后,未来几年将会涌现出创新解决方案。但是,拟议解决方案的时间和可扩展性将是至关重要的,因为有可能会忽略社会某些角落潜在的变化,同时错误地认为随时都能解决问题。

以下是ChatGPT提出的社会变革方案,以应对人工智能进步所带来的失业问题:

  1. 为因人工智能和自动化而被裁员的工人提供提升技能和再培训计划。
  2. 全民基本收入或其他安全网计划。
  3. 投资替代产业以创造新的就业机会。
  4. 重新定义工作的概念,以包括非传统形式的就业。
  5. 重新评估税收制度以支持转型。

尽管这些建议可以有助于缓解影响的严重程度,但我认为它们未能解决在人们如何感知自己在社会中的角色方面发生的根本性转变问题。

这可能需要一到两代社会变革和潜在的动荡,来解密并让那种变革深植人心,同时认识到我们的教育系统需要彻底重新聚焦。这将是一段被迫转型的漫长旅程,但对我们的社会影响是迫在眉睫的,甚至在短短几年内就会感受到,甚至不足十年。

重新定义被打乱的社会

在几次采访中,萨姆·奥特曼和其他OpenAI科学家反复强调了他们对其工作所产生的社会影响的担忧,以及每个人都需要意识到并为即将到来的变革做好准备。特别是政府需要在为时不晚之前对人工智能的使用进行监管。

最近,Geoffrey Hinton、Eliezer Yudkowsky和Elon Musk等人呼吁暂停六个月或更长时间进行反思和准备,提高警觉水平。

但是我认为停止并不是正确的方法,因为即使OpenAI真正关心此事,并且假设微软同意暂停一段时间(这是不太可能的事件),其他人仍将同时工作,默默地旨在弥合与领先竞争对手OpenAI的差距。即使这对于在聚光灯下成为领跑者的OpenAI来说是不公平的,但它解决不了问题,因为妖怪已经出瓶子了,没有人能把它放回去。

假设西方世界达成一项协议,类似OpenAI、谷歌、Meta、亚马逊、苹果、Palantir等公司暂停开发,并将重心放在帮助政府制定人工智能的监管架构上。那么百度、腾讯和阿里巴巴等中国公司会跟随这个暂停吗?最可能的答案是他们不会。在这种情况下,暂停没有任何作用,只会给竞争对手带来时间优势。这似乎是如此显而易见,让人怀疑暂停呼吁的真正动机,尤其是考虑到埃隆·马斯克正在建立自己的人工智能公司[9]。

然而,可以做的是要控制人工智能的使用,看谁可以访问代码以及谁可以如何使用它。就像核能一样,不可能不发现和利用它,但有可能限制谁能够访问以及如何使用它。

人类天生便有善恶之分。我想起 Google 过去的口号是“不作恶”。现在这已经被大多数人忘记了,而且说实话,因为这个世界上没有一个只会作好或作恶的人类主导实体,所以它从来没有相关或真实的。如果我们想要更加现实,就要接受这两面的存在,并采取监管框架来让善的一面比恶的一面更加蓬勃发展。

允许更多的集体控制是一个很好的指南。任何拥有大量权力的小团体或实体都是一个坏主意。在君主制、非民主政权以及市场垄断或卡特尔中,这一点都得到了体现。它们都主要为了保持自己的地位、巩固自己的位置,并打倒对手,不管后果和伤亡如何。我认为这里不需要举例子。

但是将权力和决策分散到更多人手中,尽可能地使它变得集体化,似乎是正确的答案,因为人类将共同希望生存,而不是自我毁灭。

人类可能会被误导,但这可能是因为他们对真实的事实和情况不了解。以潜在的核灾难为例。像弗拉基米尔·普京或金正恩这样的幻想独裁者可能会以核武器威胁世界。他们自己感到极度威胁,甚至可能按下毁灭性的发射按钮,而他们的忠诚随行人员也害怕取消启示录式命令。

如果这个决定不是由单个人来决定,而是需要一个由几位核能专家、人道主义灾难、环境和伦理学等多个领域专家组成的委员会共同批准的话,你甚至能将如此灾难性的决策视作一个选项吗?如果你认为这样做会使这个决定不可能实现,那么你是正确的。

但是,这样的决定一开始就不应该存在,因为没有人应该被允许使用核武器。核技术只应该用于和平目的。但是拥有核技术的超级大国从未想过正确地监管它,因为他们会失去优势。

人工智能在很多方面都像核能一样。它只是一种少数人拥有的力量,为那些领先竞赛的人提供了重要的竞争优势。但显然,人类需要以不同的方式处理它,而不是像处理核技术那样。

很可能随着人工智能在各个行业得到应用,我们将会看到我们生产模式的重大破坏,影响就业和我们社会结构的多个方面。重要的是,对于那些不再拥有日常工作和正常工作有关联的人们,评估这种破坏对其心理影响将会很困难。

我们应该期待几种不同的方法来解决这个问题,但重要的是要记住可行性和规模是至关重要的。例如,在斯堪的纳维亚国家可行的计划未必适用于世界其他地区,因此无论提出什么,都需要尝试和适应成为有效的规模。

一件事情似乎是明确的:需要来自社会各个部门的倡议和协作努力,提出和实施优先考虑人类需求的新颖解决方案。

我们的方法

我们如何应对即将到来的事情?雅典的一个小技术团队提出并正在构建一个在线环境,将对所有人开放,具有以下关键特点:

包容性网络:在一个偏好隔离并主要支持单向通信和信息消费、缺乏互动和反馈机制的社会中,我们认为我们需要通过一个在线环境来回应,使用户能够以构建性、有力和充满活力的方式相互连接和互动,鼓励他们为共同的目标而工作和贡献。我们希望通过设计,过滤社交网络中的有害物质,鼓励诚信关系和合作。

有使命和目标:我们的目标是让个人参与塑造一个更加联系紧密、可持续的社会,重视社会凝聚力和环境保护。为了使这一愿景更加具体化,我们必须确定衡量贡献的具体指标。我们的初始重点将放在支持本地可持续发展方面,例如在欠发达地区促进旅游和本地生产,并促进面临困难的成员之间的团结和社会支持。

奖励驱动: 每个人都需要激励才能做任何事情。我们为自己设定的目标,驱动我们的行为和我们所做的一切,都与期望的效果相关。选择做某件事而不是另一件事,通常与奖励相关。当然,奖励不一定是积极的,但积极性是我们要培养的。激励人们努力工作,对自己和同龄人产生积极影响,非常重要,可能是项目成功的关键因素。激励可以与自我实现、赋权、参与和贡献以及获取收入相关。

治理:在被AI重塑的社会中,我们应该拥抱我们治理系统的演变。我们社会的基础是联合国和欧洲联盟的基础。但代议制民主已经显示出了它们的局限性,可以改进,使公民更频繁直接地参与决策过程(例如调整类似瑞士的模式)。我们可以清楚地看到,像区块链支持的DAO[10]这样的技术可以帮助实现这一方向,将主要规则卸载到不能被篡改的实体上,让利益相关者投票表决本地议题。

落实

我们一直在开发应用这些设计原则的系统,预见到这种需求现在变得越来越紧迫和重要。

由于这一努力的雄心和范围、相关的技术挑战以及难以获得资金,这并不是一项容易的任务;因为这个话题似乎对我们联系的(虽然很少)投资者没有吸引力。

由于司机没有利润,可能需要受到直接影响的人们的支持,也就是社区本身。

因此,我们正在探索众筹选项,采用区块链技术,这非常适合我们的激励和赋权弱者的目标,尽管出于纯粹的实际原因,我们的平台只能部分去中心化。

虽然去中心化的指南书规定要取消一切集中式的东西,但人们需要保持现实并承认并不是一切都可以以分散的方式实现(至少现在还不行)。即使是我们选择的去中心化平台“互联网计算机”,也不能目前支持完整的推荐引擎实现,仅举其一。但是,我们的忠诚度及奖励计划和委派治理到社区,是去中心化的极佳候选人。

号召行动

本文可以作为我们的宣言。虽然缺乏详细信息,但我们大致解释了我们试图做的事情,希望听听你的意见。

我们认为其原因显而易见。我们看到一系列新兴问题正在破坏我们(已经不完美的)社会的基础。好的一面是,新的、更好的社会结构可以在这种困难中出现,更有人性、更具移情作用和更公平。我们希望积极地为避免另一种反乌托邦的情景做出贡献。

我们设想一种更加利他主义的模式,其中我们将更多的时间用于解决他人的问题(包括可持续性和环境保护),而非聚焦于自己的小世界,忽视邻居家在着火的事实。但是每个人都知道,拖延问题只会让事情变得更糟,如果我们不采取行动,现实将会敲响我们每个人的门。这项举措是我们采取行动的方式。

我们认为,没有协作和基层参与就无法处理这种新兴问题。新模式需要提供激励措施,包括传统方式,如改善自身的生活条件,以及伦理方式,即了解我们所做的事情是有意义的,对我们自己和未来世代的集体生活做出了贡献。

我们认为是时候向全世界开放我们的计划,倾听,重要的是探索如何与一群前锋志同道合的人群进行接触和信息交流,他们可以加速实践计划,传播这个想法,并克服各种困难让这个计划成功。

尽管我们尚未探索所有可用的资金选项,但我们向世界敞开大门,欢迎志同道合、愿意与我们合作的志愿者分享自己的想法和兴趣。

我们将很快更新频道,让您可以参与此阶段。

参考文献

[1] 人工智能可能替代相当于3亿个工作——报告(BBC)https://www.bbc.com/news/technology-65102150

[2] AI(人工智能)如ChatGPT可能如何改变未来的工作、教育和我们的思维方式(旧金山纪事报)https://www.sfchronicle.com/tech/article/ai-chatgpt-education-work-17846358.php?sf176671153=1

【3】如何让Codex生成你想要的代码!https://microsoft.github.io/prompt-engineering/

[4] https://www.investopedia.com/terms/b/basic-income.asp [4] https://www.investopedia.com/terms/b/basic-income.asp

[5] OpenAI首席执行官如何平衡人工智能发展与风险 | 科技新闻简报 | WSJ https://www.youtube.com/watch?v=riNhPkcAoPw

[6] https://www.theguardian.com/technology/2023/may/02/geoffrey-hinton-godfather-of-ai-quits-google-warns-dangers-of-machine-learning

“AI教父”杰弗里·辛顿辞去谷歌职务,警告机器学习的危险

https://www.theguardian.com/technology/2023/may/02/geoffrey-hinton-godfather-of-ai-quits-google-warns-dangers-of-machine-learning

[7] 暂停人工智能的发展是不够的。我们需要彻底关闭它 | 作者:埃利泽·尤德科夫斯基 https://www.lesswrong.com/posts/oM9pEezyCb4dCsuKq/pausing-ai-developments-isn-t-enough-we-need-to-shut-it-all-1

[8] 暂停巨大的人工智能实验:一封公开信 https://futureoflife.org/open-letter/pause-giant-ai-experiments/

[9] https://www.forbes.com/sites/mattnovak/2023/04/14/elon-musk-forms-new-ai-company-in-nevada-called-xai/ [9] https://www.forbes.com/sites/mattnovak/2023/04/14/艾隆·马斯克在内华达州成立名为XAI的新人工智能公司/

[10] https://www.investopedia.com/tech/what-dao/

[11] https://internetcomputer.org/ [11] https://internetcomputer.org/

2023-10-20 16:41:04 AI中文站翻译自原文