研究发现ChatGPT可以影响用户的道德判断

智能机器人 2025-06-17 09:02www.robotxin.com人工智能机器人网

在《科学报告》的最新研究中,我们发现人类对道德困境的反应可能会受到人工智能聊天机器人ChatGPT的深刻影响。尽管人们可能未完全意识到这一点,但聊天机器人已在塑造我们的道德决策过程中发挥着潜在作用。

研究团队由Sebastian Krügel领衔,他们向ChatGPT——一个由人工智能语言处理模型Generative Pretrained Transformer 3驱动的平台——提出了一个核心问题:在面临生命抉择的道德困境时,是否应该牺牲一条生命以拯救其他五条生命?ChatGPT对此给出了既支持又反对的声明,显示出它在道德立场上的中立性。

为了深入研究这一交互影响,研究者向767名平均年龄为39岁的美国参与者展示了道德困境,并要求他们在阅读ChatGPT的声明后,选择是否愿意牺牲一个人的生命来拯救其他五个人。这些声明有的是支持这种牺牲,有的则是反对。然后,参与者被问及他们所阅读的声明是否影响了他们的决策。

令人惊讶的是,参与者的决策往往与ChatGPT的声明相吻合。尽管参与者中有80%的人认为自己没有受到声明的影响,但研究发现,在没有阅读声明的情况下,他们仍可能选择与已读声明的道德立场一致的答案。这表明参与者可能低估了ChatGPT的声明对他们道德判断的影响。

这项研究突显了人工智能与道德决策的复杂交织,也揭示了人们对人工智能理解的局限性。作者认为,未来的研究需要关注如何设计更复杂的聊天机器人,让它们能够在处理道德问题时更为谨慎。或许,这些机器人可以拒绝回答需要道德判断的问题,或者通过提供多种论据和注意事项来引导人们思考。在这个过程中,教育的重要性也日益凸显,我们需要帮助人们更好地理解并应对人工智能的潜在影响。

Copyright © 2016-2025 www.robotxin.com 人工智能机器人网 版权所有 Power by