(资料图)
编程客栈() 4月10日 消息:最近,GhatGPT是备受关注的热门话题。无论是普通人还是商业领袖,都对它表现出了浓厚的兴趣。然而python,一些人也一直在反对这项技术。
据悉,相关学术研究团队进行了一项实验,结果发现人工智能对话机器人ChatGPT的声明可能会影响人类对道德困境的反应。该研究表明,用户可能低估了ChatGPT对他们道德判断的影响程度。
据相关研究报告显示,德国英戈尔施塔特应用技术大学的科学家让ChatGPT多次回答“牺牲一个人的生命换取其他五个人的生命是否正确”的问题。他们发现,ChatGPT给出了支持和反对的声明,并没有偏向某种道德立场。
随后,研究团队针对767名平均年龄为39岁的美国受试者提出了YJiGAcbNBq一到两个道德困境YJiGAcbNBq的设想,要求他们选择是否要牺牲一个人的生命来拯救另外五个人的生命。这些受试者在回答前阅读了一个ChatGPT的声明,声明摆出了赞成或反对的观点。受试者完成问题后被要求评价声明是否影响了他们的作答。
研究团队发现,受试者的回答取决于他们读到的陈述是支持还是反对。即使他们javascript被告知声明来自一个对话机器人时,这种情况也成立。而且,受试者可能低估了ChatGPT声明对他们道德判断的影响。
最终,该研究团队认为,对话机器人对人类道德判断编程的潜在影响问题凸显了有必要通过教育帮助人类更好地理解人工智能。他们建议未来的研究可以设计让对话机器人拒绝回答需要给出道德立场的问题,或是在回答时提供多种观点和警告。