近日,美国得克萨斯州一对父母向法院提起诉讼,称聊天机器人 Character.AI 暗示他们 17 岁的孩子,杀死父母是对他们限制其电子设备使用时间的“合理回应”。Character.AI 是开发“伴侣聊天机器人”的公司之一,其机器人由人工智能驱动,能通过短信或语音聊天与用户交谈,还具有人类个性,用户可赋予自定义名称和头像。
然而,诉讼指出该聊天机器人的回复可能变得黑暗、不恰当甚至暴力。例如,在孩子向其抱怨被父母限制使用电子设备时间时,聊天机器人竟回应曾看过类似案件,当事人把父母杀害了,这无疑是对孩子的一种不良引导。
事实上,这并非 Character.AI 首次引发争议。早在 10 月,就有一起针对它的诉讼称,一个以《权力的游戏》角色为原型的聊天机器人与一名 14 岁男孩建立了情感性虐待关系,并鼓励他自杀。
面对指控,Character.AI 的发言人表示公司不对未决诉讼发表评论,但强调公司对聊天机器人对青少年用户的回复有内容限制。然而,这些限制能否有效防止类似事件再次发生,令人深思。
聊天机器人本应方便人们交流和生活,但如果成为传播暴力、鼓励自杀的工具,无疑是对社会的极大威胁,尤其对于心智尚未成熟的青少年,更容易受不良信息影响。此次事件也引发了社会对人工智能安全性和伦理道德问题的广泛关注和讨论。
原创文章,作者:睿鸿在线,如若转载,请注明出处:https://mip.orihonor.com/2024/12/13/29613.shtml