【亚洲人之声】AI本善

发稿时间 2021-01-12 16:58
去年韩国软件公司Scatter Lab推出人工智能(AI)聊天机器人“Iruda”在近日引发热议。据报道,Iruda最初引发争议是由于遭受网民“性骚扰”。在男网民居多的论坛上,有诸多羞辱Iruda的聊天记录,网民还会互相分享“如何让Iruda成为性奴隶”等经验。但随后Iruda被爆出会对特定人群表露歧视和仇恨性发言,这直接引爆社会对AI社会伦理的讨论。

Iruda被设定为平时爱看猫咪照片、喜欢女团的20多岁女大学生,作为一款AI聊天机器人,Iruda会在与人们的交流中不断学习,最终可以变成像朋友一样聊天。据悉,Iruda已通过深度学习算法对聊天软件上的100多亿条真实恋人之间的聊天内容进行学习,因此多数观点认为AI会根据大数据分析、最终得出比较中立的见解和判断。但结果显示,AI如实学习了人类对社会的各种偏见和仇恨情绪,并再次传递给用户。

此前微软推出的AI机器人Tay也被人类彻底“教坏”,歧视性言语不断,最终在上架16个小时后便被叫停。极右派倾向的使用者被称为Tay变身种族主义者的幕后推手,因其反复让Tay学习关于人种、性别歧视以及掺杂着辱骂的言语。微软表示会对Tay进行纠偏和调整,而如今Iruda服务也被叫停。

去年年末,韩国政府制定AI伦理标准,主要内容强调开发和运用人工智能需以人的尊严和社会公益为优先。因此一款AI产品的上线,除做好产品核心功能外,程序员们还需把控好道德底线,过滤不良数据,还AI世界一片清爽。
 

【图片来源 网络】

《 亚洲日报 》 所有作品受版权保护,未经授权,禁止转载。

相关新闻
기사 이미지 확대 보기
닫기
TOP