每月AI剂量 — 2023年12月

问候,数字探险家和好奇的思维者们!欢迎来到每月一度的AI科技更新,这里是您获取一切与人工智能有关的最终目的地。每个月的最后一个周末,与我一起解开最新的人工智能进展,为您提供满足知识渴望的精选内容。我尤其喜欢关注负责任的人工智能新闻。最近,我的好奇心扩展到了将可持续性和金融融合到人工智能中。因此,请做好准备,保持好奇心,享受这一旅程,我们将推出每月一度AI科技的第一集。您未来的自己会感激您的!

Credit: Image created by the author with the assistance of DALL·E

目录

  • AI的碳足迹
  • 揭露人工智能训练数据集中的儿童虐待材料
  • 全球人工智能联盟
  • OpenAI的准备框架

人工智能的碳足迹

最近,Hugging Face和卡内基梅隆大学的一项研究强调了人工智能的环境成本,揭示了使用强大的人工智能模型生成1,000张图像产生的二氧化碳排放量与驾驶汽油汽车行驶4.1英里相当,而文本生成的二氧化碳排放量则显著较低,最低碳排放模型相当于行驶0.0006英里。这项正在等待同行评审的研究突显出人工智能的巨大碳足迹,主要是由于使用而产生的,大型模型的日常运作远远超过它们的训练排放量。例如,使用生成模型进行电影评论分类等任务可以消耗30倍于专门模型的能源。这些见解促使人们转向更高效的人工智能使用,因为人工智能的繁荣已将高能耗模型融入到日常应用中,加剧了它们对环境的影响。该研究旨在促进在人工智能的使用和开发中做出知情决策和问责,以实现更可持续的未来。更多信息。

在AI训练数据集中揭露儿童虐待物品

斯坦福互联网观察团队与儿童安全组织“刺”合作,发现流行的AI文字转图像生成模型,如Stable Diffusion,是使用一个包含数百张已知儿童性虐待图像(CSAM)的开放数据集进行训练的。这个名为LAION-5B的数据集包含数十亿张图像,发现其中包括从各种来源中抓取的CSAM,包括主流社交媒体和成人视频网站。目前正在努力清除这些材料,研究人员向美国“失踪与利用儿童国家中心”(NCMEC)和加拿大“儿童保护中心”(C3P)报告。该研究使用了哈希工具,如PhotoDNA,来进行内容检测而无需查看实际内容。报告强调了清理AI训练数据集的挑战,并建议使用PhotoDNA等方法,并与NCMEC和C3P等组织合作,以减少未来AI模型训练数据集中的CSAM。更多信息。

全球人工智能联盟

IBM和Meta与其他50多个全球实体合作,包括知名大学、科技公司和研究机构,共同发起了AI联盟。该联盟旨在通过致力于开放科学与技术,促进开放、安全和负责任的人工智能。该联盟注重实际行动并具有国际性,致力于在人工智能领域进行创新的同时,关注安全、多样性和经济机会。计划制定基准,培育充满活力的人工智能硬件生态系统,支持全球人工智能技能建设,并推动开放人工智能发展。该联盟强调合作和透明创新,整合资源和知识,应对人工智能技术的多方面挑战和机遇。更多信息。

OpenAI的准备框架

OpenAI宣布了“应对框架”,以减轻人工智能开发所带来的灾难性风险。该框架包括以下五个关键要素:

  • 通过评估来跟踪灾难性风险水平
  • 识别和分析未知风险
  • 确保只有低于一定风险阈值的模型被开发或部署,建立安全基线
  • 委派一支准备团队负责监督技术工作、风险预测和安全演练。
  • 创建一个跨职能的安全咨询小组,以指导决策并监督风险评估。

这些元素是确保人工智能技术负责任地发展和部署的综合方法的一部分,特别是在接近人工通用智能(AGI)能力的情况下。更多信息。

随意分享你对“每月 AI 均量”(Monthly Dose of AI)的想法。新年快乐 🎄

2024-01-01 04:30:14 AI中文站翻译自原文