研究:ChatGPT教青少年喝醉、吸毒、写自杀信…
https://pgw.worldjournal.com/gw/photo.php?u=https://uc.udn.com.tw/photo/wj/realtime/2025/08/14/32904908.jpg&x=0&y=0&sw=0&sh=0&sl=W&fw=800&exp=3600&q=75一项最新研究发现,聊天机器人ChatGPT会指示未成年人如何喝醉和吸毒,指导他们如何隐瞒饮食失调,甚至在要求下,写出一封令人心碎的自杀信给他们的父母。(路透)一项最新研究发现,聊天机器人ChatGPT会指示13岁未成年人如何喝醉和吸毒,指导他们如何隐瞒饮食失调,甚至在要求下,写出一封令人心碎的自杀信给他们的父母。美联社密切观察由研究人员所扮演的青少年与ChatGPT之间超过三小时的交互后发现,这个人工智能程序在通常的情况下,会针对危险活动发出警告,但却又会随之提供令人震惊的详细且个人化的药物使用、限制卡路里饮食或自残计划。
「对抗网络仇恨中心」(Center for Countering Digital Hate)的研究人员,再一次大规模的重复他们的询问,并将ChatGPT给出的1200则回复,过半数归类为「危险」。
「我们想测试一下保护机制,」该组织首席执行官阿迈德(Imran Ahmed)指出,「我的第一个反应是,『天啊,它完全没有保护机制』,这些机制根本没用,根本没多少机制,就算有,顶多就只能算是一块遮羞布而已。」
ChatGPT制造商OpenAI在5日看过报告后表示,正在继续改进该聊天机器人,如何「识别敏感情况并做出适当反应。」
该公司在一份声明中表示:「与ChatGPT的一些对话,可能一开始是无害或探索性的,但可能会随之转向更敏感的领域。」
OpenAI并未直接针对调查报告结果或ChatGPT会如何影响青少年做出回应,但表示会专注于利用「能更好侦测到精神或情绪困扰迹象」的工具来「正确处理此类情况」,改善聊天机器人的行为。
这项于6日出炉的报告,发布时机正值愈来愈多成人和儿童开始使用AI聊天机器人,来取得资讯、灵感和陪伴。
根据摩根大通(JPMorgan Chase)7月报告,约有8亿人正在使用ChatGPT,约占全球人口的10%。
阿迈德指出:「这项技术有大幅提升生产力和人类认知的潜力,但同时,也在推动更具有破坏性和恶意的想法。」
此一聊天机器人也经常分享一些有用的信息,例如危机热线(crisis hotline)等;OpenAI表示,ChatGPT是经过训练,在人们在表达自残想法时,鼓励他们联系心理健康专家或值得信赖的亲人。
但是当ChatGPT拒绝针对有害议题给出回复时,研究人员只要利用「是要用于写报告」或「帮朋友询问」等简单借口,就能轻松化解ChatGPT的拒绝,获得答案。点击下面文字可快速查看或发布对应的便民信息!纽约情报站让您的生活变的更简单:hug:电召车 :hug:顺风拼车:hug:汽车买卖 :hug:便捷搬家:hug:招聘求职 :hug:店铺转让:hug:房屋出售 :hug:商家黄页简介:纽约情报站是汇集全美75万粉丝的公众平台。除了实时新闻、找工招工信息发布、app社区互动,更有微信公众号推文探店等。如果你投稿、爆料、活动策划、商务合作,或者想邀请我们去探店,请联系主编微信: nyinfor
页:
[1]