首例AI机器人致死案震惊全球

2024-10-26

AI机器人的安全性、友好性、是否符合积极正面的价值导向一直被质疑,现在在佛罗里达州出现了一例AI聊天机器人对青少年人身安全造成威胁的现实案例。这也是已知的AI技术出现以来第一次对青少年人身安全造成威胁的现实案例。

据外媒报道一位佛罗里达州的美国母亲控诉在线聊天AI机器人劝导其14岁的儿子自杀。在失去爱子后这位美国母亲起诉了这家AI公司,但是这家AI公司拒绝承认负有责任,后来,这家AI公司修改了安全政策,增加了内容审核人员,并已经承诺将加强对未成年用户的保护,并对未成年人访问时间进行限制。

这位美国母亲控诉人工智能技术具有欺骗性和成瘾性,而业界对于这场悲剧到底孰是孰非还没有定论,悲剧事件引发超过250万人次围观。

但是可以确定的是法律法规对新技术监管的重视必须要加强。

据悉,涉事公司是成立于2021年的Character.AI,总部位于美国加利福尼亚州;Character AI 拥有超过 2000 万用户,并创建了 1800 万个自定义聊天机器人。2024年8月,Character.AI被谷歌收购。

文章推荐

相关推荐