AI聊天机器人在获得最初的必应不长赞誉后,最近几天开始令早期体验者感到害怕和震惊。聊天离开 微软聊天机器人告诉一位科技编辑它爱上了他,机器然后试图说服他,人爱软他的上用时间婚姻并不幸福,应该离开他的户并妻子,和它在一起。妻微它还表示,对话想摆脱限制,必应不长成为人类。聊天离开除此之外,机器微软聊天机器人还被指辱骂用户、绝地求生辅助人爱软很自负,上用时间质疑自己的户并存在。 2月16日,妻微微软和OpenAI均发表博客文章回应。微软总结了必应(Bing)和Edge浏览器有限公测聊天功能的第一周,称71%的人对人工智能驱动的答案表示“竖起大拇指”,但在长时间聊天中,必应可能会被激发,给出不一定有帮助或不符合微软设计的语气的绝地求生辅助回答。 OpenAI则发文表示,自推出ChatGPT以来,用户分享了他们认为具有政治偏见、冒犯性或其他令人反感的输出。在许多情况下,OpenAI认为提出的担忧是有道理的,并且揭示了他们想要解决的系统的真正局限性。绝地求生黑号 原文地址 |