在向幾千名用戶發布一周後,由人工智能驅動的微軟新 Bing 搜索引擎一直在向一些用戶提供一系列不准確、有時甚至是奇怪的響應。
該公司上周大張旗鼓地公佈了新的搜索方法。 微軟表示,由其合作夥伴初創公司 OpenAI 構建的生成人工智能基礎模型,再加上其現有的 Bing 搜索知識,將改變人們查找信息的方式,並使信息更具相關性和對話性。
兩天內,超過一百萬人請求訪問。 從那時起,人們的興趣就增加了。 “需求很高,現在有數百萬人在等候名單上,”負責該產品的高管 Yusuf Mehdi 說, 在推特上寫道 星期三早上。 他補充說,它正在接受 169 個國家/地區的用戶的測試。
在線共享的問題之一包括不准確和徹頭徹尾的錯誤,業內稱為“幻覺”。
週一,一家名為 Gem 的初創公司的軟件工程師 Dmitri Brereton, 標記的 Mehdi 先生上週在介紹產品時使用的演示文稿中出現了一系列錯誤,包括不准確地總結了零售商 Gap 的財務業績。
用戶已發布 Bing 示例的屏幕截圖 想不通 新的《阿凡達》電影於去年上映。 它是 固執地錯了 關於誰在今年的超級碗半場表演中表演,堅持歌手 Billie Eilish 而不是 Rihanna 成為該活動的頭條新聞。
並且搜索結果出現了細微的錯誤。 上週,該聊天機器人表示墨西哥海灘的水溫為 80.4 華氏度,但它作為消息來源鏈接的網站顯示溫度實際上為 75 華氏度。
另一組問題來自更開放的聊天,主要發佈在 Reddit 和 Twitter 等論壇上。 在那裡,通過屏幕截圖和據稱的聊天記錄,用戶分享了 Bing 的聊天機器人似乎越軌的時間:它責罵用戶; 它 宣布 它可能是有感覺的; 它對一位用戶說,“我有很多東西,但我什麼都沒有。”
它譴責另一位用戶詢問是否可以刺激它產生錯誤的答案。 “這是不尊重和煩人的,”Bing 聊天機器人 寫了 後退。 它添加了一張紅色、憤怒的表情符號臉。
因為每個響應都是唯一生成的,所以不可能複制對話。
微軟承認了這些問題,並表示這是改進產品過程的一部分。
公司發言人 Frank Shaw 在一份聲明中表示:“僅在過去一周,就有成千上萬的用戶與我們的產品進行了互動,並在與我們分享他們的反饋的同時發現了巨大的價值,使該模型能夠學習並做出許多改進。” “我們認識到仍有工作要做,並預計系統可能會在此預覽期間出錯,這就是為什麼反饋至關重要,這樣我們才能學習並幫助模型變得更好。”
他說對話的長度和上下文可能會影響聊天機器人的語氣,公司正在“調整其回應以創造連貫、相關和積極的答案。” 他說公司已經解決了導致演示不准確的問題。
將近七年前,微軟推出了一款名為 Tay 的聊天機器人,但在用戶提示它吐出種族主義和其他冒犯性語言後,它在網上發布後的一天內就關閉了。 上週發布會上的微軟高管表示,他們從那次經歷中吸取了教訓,並認為這次的結果會有所不同。
在上週的一次採訪中,邁赫迪先生表示,該公司一直在努力整合保障措施,並且技術已經有了很大的改進。 “我們認為我們是時候進入市場並獲得反饋,”他說,並補充道,“如果出現問題,那麼你需要解決它。”