技術 為什麼 AI 聊天機器人會說謊並且行為怪異? 照照鏡子。

為什麼 AI 聊天機器人會說謊並且行為怪異? 照照鏡子。

經過 admin
0 評論

當微軟本月在其 Bing 搜索引擎中添加聊天機器人時,人們注意到它提供了各種關於 Gap、墨西哥夜生活和歌手 Billie Eilish 的虛假信息。

然後,當記者和其他早期測試人員與微軟的 AI 機器人進行長時間對話時,它會變得粗魯和令人不安的令人毛骨悚然的行為。

自從 Bing bot 的行為成為全球轟動以來,人們一直在努力理解這個新創造的古怪之處。 通常情況下,科學家們說人類應該受到很大的指責。

但對於新的聊天機器人能做什麼以及它為什麼會這樣做,仍然有些神秘。 它的複雜性使其難以剖析,甚至更難預測,研究人員正在通過哲學鏡頭以及計算機科學的硬代碼來看待它。

與任何其他學生一樣,人工智能係統可以從不良來源學習不良信息。 那奇怪的行為? 神經科學家、心理學家和計算機科學家 Terry Sejnowski 說,這可能是聊天機器人對使用它的人的語言和意圖的扭曲反映,他幫助奠定了現代人工智能的知識和技術基礎。

“當你越來越深入地研究這些系統時,就會發生這種情況,”索爾克生物研究所和加州大學聖地亞哥分校的教授 Sejnowski 博士說,他發表了一篇文章 研究論文 對這種現象 本月發表在科學雜誌《神經計算》上. “無論你在尋找什麼——無論你想要什麼——他們都會提供。”

谷歌也 炫耀 一個新的聊天機器人,巴德,這個月,但科學家和記者很快意識到它在寫關於詹姆斯韋伯太空望遠鏡的廢話。 OpenAI 是舊金山的一家初創公司,它在 11 月推出了 ChatGPT,掀起了聊天機器人的熱潮,而 ChatGPT 也並不總是說實話。

新的聊天機器人由科學家稱為大型語言模型或 LLM 的技術驅動。這些系統通過分析從互聯網上挑選的大量數字文本來學習,其中包括大量不真實、有偏見和其他有毒的材料。 聊天機器人學習的文本也有點過時,因為他們必須花費數月時間分析它才能讓公眾使用它們。

當它分析來自互聯網的海量好壞信息時,LLM 學會做一件特定的事情:猜測一系列單詞中的下一個單詞。

它的運作就像自動完成技術的巨型版本,當您在智能手機上鍵入電子郵件或即時消息時,它會建議下一個詞。 鑑於序列“湯姆克魯斯是一個____”,它可能會猜測“演員”。

當您與聊天機器人聊天時,該機器人不僅僅利用它從互聯網上學到的一切。 它利用了你對它說的一切以及它回應的一切。 它不僅僅是猜測句子中的下一個單詞。 它正在猜測包括您的單詞和它的單詞的長文本塊中的下一個單詞。

對話時間越長,用戶在不知不覺中對聊天機器人所說內容的影響就越大。 如果你想讓它生氣,它就會生氣,Sejnowski 博士說。 如果你哄它變得令人毛骨悚然,它就會變得令人毛骨悚然。

對微軟聊天機器人奇怪行為的驚恐反應掩蓋了一個重點:聊天機器人沒有個性。 它提供了一個非常複雜的計算機算法吐出的即時結果。

當微軟限制與 Bing 聊天機器人的討論時長時,它似乎減少了最奇怪的行為。 這就像從汽車的試車員那裡了解到,開得太快太久會燒壞它的引擎。 微軟的合作夥伴 OpenAI 和谷歌也在探索控制機器人行為的方法。

但這種保證有一個警告:由於聊天機器人從如此多的材料中學習並以如此復雜的方式將它們組合在一起,研究人員並不完全清楚聊天機器人是如何產生最終結果的。 研究人員正在觀察機器人做了什麼,並學習限制這種行為——通常是在它發生之後。

微軟和 OpenAI 已經決定,他們要想知道聊天機器人在現實世界中會做什麼,唯一的方法就是放開它們——並在它們偏離方向時將它們收起來。 他們相信他們的大型公共實驗值得冒險。

Sejnowski 博士將微軟聊天機器人的行為比作厄里斯魔鏡,厄里斯魔鏡是 JK 羅琳的哈利波特小說中的神秘神器,以及許多以她富有創造力的年輕巫師世界為背景的電影。

“Erised”是“desire”的倒寫。 當人們發現鏡子時,它似乎提供了真理和理解。 但事實並非如此。 它顯示了任何凝視它的人根深蒂固的慾望。 有些人如果盯著看太久就會發瘋。

“因為人類和法學碩士都在相互映照,隨著時間的推移,他們將趨向於一個共同的概念狀態,”Sejnowski 博士說。

他說,記者開始在 Bing 聊天機器人中看到令人毛骨悚然的行為並不奇怪。 無論是有意還是無意,他們都在將系統推向一個不舒服的方向。 當聊天機器人接受我們的話並將其反饋給我們時,它們可以強化和放大我們的信念,並誘使我們相信它們告訴我們的內容。

Sejnowski 博士是 20 世紀 70 年代末和 80 年代初的一小群研究人員之一,他們開始認真探索一種稱為神經網絡的人工智能,它驅動著今天的聊天機器人。

神經網絡是一種通過分析數字數據來學習技能的數學系統。 這與讓 Siri 和 Alexa 識別您所說內容的技術相同。

2018 年左右,谷歌和 OpenAI 等公司的研究人員開始構建神經網絡,從大量數字文本中學習,包括書籍、維基百科文章、聊天記錄和其他發佈到互聯網上的內容。 通過在所有這些文本中找出數十億個模式,這些 LLM 學會了自己生成文本,包括推文、博客文章、演講和計算機程序。 他們甚至可以進行對話。

這些系統是人性的反映。 他們通過分析人類發佈到互聯網上的文本來學習技能。

但這並不是聊天機器人產生有問題的語言的唯一原因,新墨西哥州獨立實驗室聖達菲研究所的人工智能研究員梅蘭妮米切爾說。

當它們生成文本時,這些系統不會逐字逐句地重複互聯網上的內容。 它們通過組合數十億種模式自行生成新文本。

即使研究人員僅根據同行評審的科學文獻對這些系統進行訓練,他們仍可能會產生科學上荒謬的陳述。 即使他們只從真實的文本中學習,他們仍然可能產生不真實的東西。 即使他們只從有益的文本中學習,他們仍然可能產生一些令人毛骨悚然的東西。

“沒有什麼能阻止他們這樣做,”米切爾博士說。 “他們只是想製造一些聽起來像人類語言的東西。”

人工智能專家早就知道這項技術會表現出各種意想不到的行為。 但他們並不總是就如何解釋這種行為或聊天機器人的改進速度達成一致。

因為這些系統學習的數據遠遠超過我們人類所能理解的,所以即使是人工智能專家也無法理解為什麼它們會在任何給定時刻生成一段特定的文本。

Sejkowski 博士說,他相信從長遠來看,新的聊天機器人有能力提高人們的效率,並為他們提供更好更快地完成工作的方法。 但這給構建這些聊天機器人的公司和使用它們的人都帶來了警告:它們也可以讓我們遠離真相,進入一些黑暗的地方。

“這是未知領域,”Sejkowski 博士說。 “人類以前從未經歷過這種情況。”

You may also like

發表評論

關於我們

china-today.news 通過易於閱讀的帖子介紹了最新熱門新聞,政治,技術,創業公司,健康和科學方面的最新和重要突破。新興技術正在改變我們社會和文化的未來。我們的使命是收集,記錄和傳播有關變革性技術和科學發現的信息報告,這些報告可能會改變我們的文化,生活和行業。

最新的文章

Copyright ©️ All rights reserved. | China Today