正在招聘人类历史上可能最重要的工作
OpenAI的“国家安全威胁研究员”职位开放 - 是希望的象征还是厄运的预兆?
位于人工智能发展的前沿,OpenAI从根本上拥有有关AI潜力的最深刻洞察力,无论是对于善良还是邪恶。这种二元性是OpenAI网站上众多突出展示的文章中一个常见的话题。然而,也许可以通过向下滚动浏览所有精心设计的故事,找到关于OpenAI信念最直率的见解,标记为"职业发展"的那个微小链接。
浏览他们的职业页面,大多数岗位都充满着推动人工智能技术向前发展的乐观态度。然而,令人警醒的少数职位透露出为了潜在与超级人工智能对抗而做准备的紧迫感,而这是可能面临的最高风险。
一个潜在挽救世界的工作
有一个特定的角色“国家安全威胁研究员”在众多中突出出来。这个位于OpenAI新的应对团队中的职位负责“准备应对与边缘人工智能模型相关的灾难性风险”,特别是涉及“化学、生物、放射、核威胁”(CBRN)方面的风险。
阅读职位发布后,我设想一位工程师在他们的小隔间里,每天都确保超级智能人工智能不会最终失控并侵入核武库。这种情景几乎感觉就像一个令人兴奋但又十分陈词滥调的夏季大片剧情,直到我提醒自己这是真实生活。
无论谁扮演这个角色,都有可能成为历史上最关键的人物,超越了1983年单枪匹马避免了核灾难的苏联上校斯坦尼斯拉夫·彼得罗夫。
不明解的OpenAI内部戏剧
在对OpenAI首席执行官Sam Altman的解雇和重新雇佣所伴生的混乱事件中,引发了关于OpenAI领导层在特定人工智能安全问题上存在深层次分歧的猜测。尽管OpenAI内部人员保持沉默,但包括人工智能行业内部人士埃隆·马斯克在内的许多人都表达了他们的担忧。
虽然关于即将推出的AI模型可能带来的任何潜在问题的具体细节仍然很少,但OpenAI对AI的一般风险一直持有一定的立场。在国会证词中,Altman本人呼吁增加对AI行业的严格监管,这是一位首席执行官很少见的要求。
一个具有讽刺意味的安全策略:将人类排除在循环之外
OpenAI目前正在展示其关于AI安全方法的研究,该方法被称为“从弱到强泛化”。这涉及创建一个更简单(弱)的AI模型来监督更复杂(强)的模型,意识到人类无法直接控制超人类的AI。
虽然这感觉有点像让你的狗来照顾你的马,但更像是一名教练指导一名优秀的田径运动员——教练自己无法赢得比赛,但他们能帮助指导运动员取得胜利,并确保他们遵守规则,比如跑向正确的方向、保持自己的赛道、在终点线停下来,还有,不翻越篱笆跑远。在田径比赛中,就像在人工智能中一样,逃跑对任何人都不好。
根据OpenAI的博客和研究,弱转强泛化显示出潜力,但仍处于早期研究阶段。
进一步透明化的呼吁
虽然OpenAI坦言AI可能“导致……人类灭绝”,但它对近期模型可能存在的具体威胁保持沉默。尽管在大多数行业中,不愿透露未来产品是可以理解的,但这个情况引发了一个问题:在AI发展中是否应该更加开放,特别是因为OpenAI本身主张加强监管?
并非所有的英雄都穿披风
超级人工智能的竞赛可能比大多数人意识到的更接近终点线,而领先者OpenAI积极准备应对安全问题,这在某种程度上令人安慰。然而,随着OpenAI从提出假设性警告转向积极雇佣核能和生物威胁等领域的专家,人们真正开始意识到人工智能潜在危险的严酷现实。
最后,OpenAI的新任国家安全威胁研究员和他们的应对团队很有可能改变人类历史的走向 — 如果他们工作得好,你可能永远不会听说。让我们祝愿他们取得巨大成功。
现在申请!
你是一位机器学习专家,拥有在领域如网络安全、化学、生物、放射性和核威胁以及国家安全/公共安全等方面的多样化技术背景吗?拯救世界的可能性是否能帮助你早上起床?你精通Microsoft Office吗?
然后OpenAI有适合你的工作-立即申请!
由保罗·哈德(Paul Harder)编写,稍微得到GPT4的一点帮助。