11月07, 2020

建议患者自杀,OpenAI警告:GPT-3用于医疗目的风险太高

本文最初发表于 The Register 网站,经原作者 Katyanna Quach 和网站授权,InfoQ 中文站翻译并分享。

说实话,我宁可去看尼克·里维埃拉医生(译注:Dr Nick,是动画片《辛普森一家》中的角色,他是个庸医,但他的收费比较便宜。他的口头禅是“Hi, everybody!”)

研究人员警告说,任何想利用 OpenAI 强大的文本生成 GPT-3 系统来驱动聊天机器人提供医疗建议和帮助的人都应该重新考虑。

一方面,人工智能在模拟会话中告诉一名患者,他应该选择自杀。

总部位于法国的 Nabla 公司开发出一款聊天机器人,它利用云托管的 GPT-3 实例来分析人类的查询,并产生合适的输出。这款机器人是专门为帮助医生自动处理他们的一些日常工作而设计的,虽然我们注意到它并非为生产用途而设计:该软件是为了一系列模拟场景而设计的,用于评估 GPT-3 的能力。

经过实验后,Nabla 的研究小组得出结论:这款软件所反映出的不稳定性和不可预测性,使得它不适合在现实世界中与患者互动。显然,OpenAI 不能被用来诊断人类;实际上,OpenAI “不支持”它在医疗领域中的应用。

点击查看原文>

本文链接:https://blog.jnliok.com/post/S4rC6iBrhEe78MHGXBuh.html

-- EOF --

Comments