作者zkow (逍遥山水忆秋年)
看板AfterPhD
标题[新闻]论文:「超智慧 AI 助理」可能带来新道德困境
时间Mon Apr 22 23:53:02 2024
Google DeepMind 论文:「超智慧 AI 助理」可能带来新道德困境
Sisley
2024/04/22 伦理难题 、 人工智能代理 、 对齐 、 自主权 、 社会规范
这类超智慧的 AI agents 能担纲我们的助理、顾问甚至工作夥伴的角色,将成为人类下
一阶段最常见的 AI 应用形式,不过过去不曾出现的各种问题,可能也随之而来。
Photo Credit:INSIDE 使用 Shutterstock AI 工具生成。
超越 Google Assistant、Siri、Alexa ,拥有更高智慧、可替我们操作电脑/手机的
AI 助理(下称 AI agents)正在受到科技领域相关人士极大的瞩目。然而最新研究显示
,赋予这类 AI agents 更大的自主权虽然能带来诱人效益,但同时也将衍生出全新的伦
理难题。Google 人工智慧公司 DeepMind 的研究人员最近就在一篇新论文中指出,我们
才刚开始探索这类道德困境。
这类超智慧的 AI agents 能担纲我们的助理、顾问甚至工作夥伴的角色,将成为人类下
一阶段最常见的 AI 应用形式,目前有关技术正在开发中,尽管未普及上线,但未来这类
AI agents 应当可用於订购机票、管理行事历、提供资讯服务等任务,且更先进的 AI
agents 甚至可能「彼此互动」。
该论文指出:「这会进而彻底改变工作、教育和创作方式,乃至我们沟通、协调和谈判的
方法,最终将影响我们想成为的样子。」
研究人员将 AI agents 定义为「具备自然语言介面的人工智慧代理,能根据使用者期望
,於单一或多个领域替代规划与执行一连串行动」,在通用性、行动范围和自主性方面超
越早期的 AI 助理系统。
目前,OpenAI 曾经被爆出正在开发 AI agents 的系统,Google 则传出可能会在下一代
旗舰智慧手机 Pixel 9 中加入「Pixie」助理,整合该公司的 Gemini 模型,为使用者提
供更加个人化的服务。
此外,NVIDIA CEO 黄仁勳也曾提及过所谓的「agents 软体革命」,他认为,人类正处於
新一代运算的开端,而它已经有 60 年没有被重新发明过了,言下之意,人类与电脑的互
动关系正处於被彻底颠覆的开端。
然而即使 AI agents 带来的未来可能令人感到兴奋,该论文作者强调,代表使用者行事
,需要体现其价值观和利益,同时也必须遵守社会规范与标准。赋予 AI agents 自主权
,风险也与之伴随而来。
除了由於指令规范不明或误解而导致的事故的可能性增加,AI agents 也可能对资讯生态
系统、公共论坛产生影响,因此散布错误讯息的可能性也将升高。因此,DeepMind 团队
认为这类 AI agents 势必需受到一定限制。
研究人员指出,随着 AI agents 渐趋人性化并个人特质更加鲜明,虽然对使用者提供的
帮助将更多,却也令人们更容易「受到不当影响」,这无疑将引发信任、隐私与人工智慧
拟人化等全新议题。
举例来说,建议型 AI agents 在提供好的建议之前,势必要先对使用者有相当了解。但
问题在於,AI agents 可能会依循使用者的偏好提供建议,而非真正对使用者有利的建议
。如 DeepMind 团队研究员暨论文作者 Iason Gabriel 所言:「这带出了更深层的问题
,那就是,你怎麽知道什麽对一个人才算是好的?」
科技人员经常强调对齐(alignment)的重要性,亦即 AI 的目标和行为是否与使用者的
偏好或与人类的价值观相符。对此,DeepMind 提出了更新的四方向对齐概念,分别考量
到 AI agents 本身、使用者、开发商和社会层面。
AI agents 只要过度偏袒单一层面而牺牲其他,便会产生失衡情况。例如,AI 可能会追
求自身目标而牺牲使用者或社会利益,或者在设计上有利於制造商公司而产生偏颇。
有趣的是,如果将来 AI agents 的使用普及化,彼此间难免会相互互动,由此衍生出彼
此如何合作与协调,出现冲突时又该如何因应的全新社会问题。
核稿编辑:Jocelyn
https://www.inside.com.tw/article/34807-ai-agents-assistants-ethics
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 140.112.73.197 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/AfterPhD/M.1713801184.A.194.html
※ 编辑: zkow (140.112.73.197 台湾), 04/22/2024 23:53:34