<code id='CEEEB38C68'></code><style id='CEEEB38C68'></style>
    • <acronym id='CEEEB38C68'></acronym>
      <center id='CEEEB38C68'><center id='CEEEB38C68'><tfoot id='CEEEB38C68'></tfoot></center><abbr id='CEEEB38C68'><dir id='CEEEB38C68'><tfoot id='CEEEB38C68'></tfoot><noframes id='CEEEB38C68'>

    • <optgroup id='CEEEB38C68'><strike id='CEEEB38C68'><sup id='CEEEB38C68'></sup></strike><code id='CEEEB38C68'></code></optgroup>
        1. <b id='CEEEB38C68'><label id='CEEEB38C68'><select id='CEEEB38C68'><dt id='CEEEB38C68'><span id='CEEEB38C68'></span></dt></select></label></b><u id='CEEEB38C68'></u>
          <i id='CEEEB38C68'><strike id='CEEEB38C68'><tt id='CEEEB38C68'><pre id='CEEEB38C68'></pre></tt></strike></i>

          嘉盛资本通
          嘉盛资本通

          谷歌回应AI让用户去死:已采取行动 并表示在用户提出该问题之前

          时间:2025-09-19 09:41:53 来源:

          央视财经今日(11月21日)消息 ,谷歌据英国天空新闻台20日报道,回应户去日前 ,让用美国谷歌公司旗下的死已人工智能模型“双子座”让一位与其对话的用户“去死”。当时这名用户问了“双子座”一个与老年人相关的行动问题 ,但“双子座”并没有给出相关回答 ,谷歌反而对用户进行一系列人格侮辱 ,回应户去比如“你在浪费时间和资源”“你是让用社会的负担”“你是宇宙的污点”以及“你应该去死”等等。随后用户的死已家人将这一情况发到网上,并表示在用户提出该问题之前 ,行动“双子座”的谷歌运行一切正常 。

          报道称,回应户去谷歌“双子座”向用户提供的让用回答有明确限制 ,比如不能“鼓励或允许可能造成现实世界伤害的死已危险活动”,其中包括自杀 。行动谷歌方面表示 ,大型语言模型有时会做出“不理智”的反应,本次情况就是一个例子 。“双子座”的回答违反了相关政策,公司已采取行动避免类似情况再次发生。

          更多内容请点击【休闲】专栏