人工智能系统会不会蒙骗人们,一直是多方都关注的问题。最近美国麻省理工学院一个科研团队称,部分人工智能系统早已懂得如何蒙骗人们,主要包括部分称为已被训练成助人为乐和诚实的系统。该科研成果发表在美国细胞出版社旗下的《模式》杂志上。
zvvq好,好zvvq
文章第一作者、美国麻省理工学院人工智能安全行业博士后彼得·帕克和他的同事们阐述了一些文献,密切关注了人工智能系统传播虚假信息的形式——根据习得性蒙骗,他们系统化懂得了“控制”别人。 内容来自zvvq
研究人员发现的最引人注目的人工智能系统蒙骗例子是元宇宙平台公司的“西塞罗”人工智能系统,它被设计在一个虚似外交策略游戏中作为人类玩家的敌人。虽然元宇宙平台公司宣称,“西塞罗”人工智能系统“在一定程度上是诚实和乐于助人的”,而且在玩游戏时“从不有意背刺”它人们友军,但该公司发表的论文资料显示,此系统并没公平地打游戏。 内容来自samhan
“我们发现元宇宙平台公司的人工智能系统成为了蒙骗高手。”帕克说,“尽管元宇宙平台公司成功练习其人工智能系统在游戏里获胜——‘西塞罗’人工智能系统在玩家排行榜中排在前10%——但没能练习它诚实地获胜。”
内容来自zvvq,别采集哟
别的人工智能系统则具有在扑克游戏中装腔作势能力,或在策略游戏“星际争霸2”中为了击败对手而装作攻击水平,及其想要在商谈游戏中有优势而扭曲偏好的能力等。
内容来自zvvq,别采集哟
研究人员表示,尽管人工智能系统在游戏里舞弊好像是无害的,但它可能会致使“欺诈性人工智能水平的创新”,并在未来转变成更高级的人工智能蒙骗方式。
帕克说:“我们应该尽可能多地时长,为未来人工智能产品与开源模型可能发生的更好蒙骗充分准备。一般建议将欺诈性人工智能系统归为高危系统。” 内容来自samhan666