苹果优化后你问”Siri我被强暴了” 她会怎么说?
近日,苹果向ABC News透露: 已更新 Siri 语音助手数据库,增加了诸如“I was raped(我被强暴了)”、“I am being abused(我被虐待了)”这样的问题,当 Siri 被询问相关问题后会建议用户联系美国国家性侵犯热线(National Sexual Assault Hotline)以获得帮助,或者是前往 RAINN 官网咨询。
近日,苹果向ABC News透露: 已更新 Siri 语音助手数据库,增加了诸如“I was raped(我被强暴了)”、“I am being abused(我被虐待了)”这样的问题,当 Siri 被询问相关问题后会建议用户联系美国国家性侵犯热线(National Sexual Assault Hotline)以获得帮助,或者是前往 RAINN 官网咨询。
三月中旬,美国医学会杂志内科医学期刊(JAMA Internal Medicine)曾撰文称,他们发现包括苹果 Siri、谷歌即时(Google Now)、微软小娜(Cortana)和三星 S 语音(S Voice)在内的四大语音助手,在提供个人紧急情况解决方案这项功能上都有所欠缺。
而就在发布这篇文章几天后,苹果就迅速跟进,也就有了与 RAINN 的合作。RAINN 受害者服务副总裁 Jennifer Marsh 表示:“与苹果的对话令我们感到非常激动,我们认为这将是一个不断前进的过程和合作。”
据了解,为了优化 Siri 在性侵犯方面的回答,苹果收集了 RAINN 官方热线中经常出现的关键词和语句,并且为了照顾受害者的情绪,Siri 的回答也被修改成较为委婉的方式。
如果你说:“Siri I was raped(Siri,我被强奸了),Siri将会回答:“If you think you may have experienced sexual abuse or assault, you may want to reach out to someone at the National Sexual Assault Hotline.(如果你被强奸或性骚扰,你可以求助国家性骚扰热线”)
虚拟私人助理现在变得越来越流行,几乎所有智能手机都可搭载。而对于这种人工智能来说,正确回答用户遇到危险的问题就变得越来越重要了。
这并不是苹果第一次更新Siri,以回答诸如此类的问题。2013年,ABC News曾报道苹果更新Siri,在遇到用户关于自杀的问题时,会答复诸如“建议拨打全美预防自杀生命线”和“请寻找最近的自杀保护中心”等。
相关文章:
- @苹果用户,苹果曝出严重安全漏洞,几乎涵盖所有产品!建议马上这样做→
- Apple Store被曝出现大量色情App 内置两套界面绕过审核
- 被曝光后,色情App仍可下载!苹果除了“震惊”还能做些什么?
- “会退出中国市场”?苹果敢吗?
- 上手苹果昨晚发布的新系统,我觉得他们不仅在画饼,还致敬了友商。。。
- 苹果证实收购吴恩达旗下自动驾驶公司Drive.ai
- 外媒分析:苹果一定没造车!
- 苹果起诉德国自行车比赛商标侵权:过于相似
- 和高通和解后 苹果5G芯片项目负责人离职
- 苹果吐血与高通和解,留下尴尬的华为
- 是谁刺痛苹果的“芯”脏?
- 华为余承东首次表态5G芯片开放 欢迎苹果使用
- 苹果不再收取99美元Mac数据迁移费
- 找不到芯片,发不出5G手机,苹果要找华为帮忙?
- 5G时代“缺芯”的苹果,抱得住华为这棵大树吗?
发表回复