技術 為什麼聊天機器人有時會表現得很奇怪並且胡說八道

為什麼聊天機器人有時會表現得很奇怪並且胡說八道

經過 admin
0 評論

微軟上週發布了新版 Bing 搜索引擎,與普通搜索引擎不同的是,它包含一個聊天機器人,可以用清晰、簡潔的文字回答問題。

從那時起,人們注意到 Bing 聊天機器人生成的某些內容不准確、具有誤導性且非常奇怪,這引發了人們對它具有感知能力或感知周圍世界的恐懼。

事實並非如此。 要理解其中的原因,了解聊天機器人的真正工作原理很重要。

不,讓我們再說一遍:不!

6 月,谷歌工程師 Blake Lemoine 聲稱谷歌內部正在測試的類似聊天機器人技術具有感知能力。 那是假的。 聊天機器人沒有意識,也不聰明——至少不像人類那樣聰明。

讓我們退後一步。 Bing 聊天機器人由一種稱為神經網絡的人工智能提供支持。 這聽起來像是一個計算機化的大腦,但這個術語具有誤導性。

神經網絡只是一個通過分析大量數字數據來學習技能的數學系統。 例如,當神經網絡檢查數千張貓的照片時,它可以學會識別貓。

大多數人每天都使用神經網絡。 這項技術可以識別發佈到互聯網服務(如 Google Photos)的圖像中的人、寵物和其他物體。 它允許 Siri 和 Alexa(來自 Apple 和 Amazon 的會說話的語音助手)識別您所說的話。 這就是谷歌翻譯等服務在英語和西班牙語之間的翻譯。

神經網絡非常擅長模仿人類使用語言的方式。 這可能會誤導我們認為該技術比實際更強大。

大約五年前,谷歌和 OpenAI 等公司的研究人員開始構建從大量數字文本(包括書籍、維基百科文章、聊天記錄等)中學習的神經網絡。發佈到互聯網上的各種其他內容。

這些神經網絡被稱為大型語言模型。 他們能夠使用這些成堆的數據來構建你可以稱之為人類語言的數學地圖。 使用這張地圖,神經網絡可以執行許多不同的任務,比如寫自己的推文、撰寫演講稿、生成計算機程序,是的,進行對話。

這些大型語言模型已被證明是有用的。 微軟提供了一個工具,Copilot,它建立在一個大型語言模型上,可以在計算機程序員構建軟件應用程序時建議下一行代碼,就像自動完成工具在您鍵入文本或電子郵件時建議下一個單詞的方式一樣。

其他公司提供類似的技術,可以生成營銷材料、電子郵件和其他文本。 這種技術也被稱為生成式人工智能

確切地。 11 月,OpenAI 發布了 ChatGPT,這是普通大眾第一次體驗到它。 人們感到驚訝——這是理所當然的。

這些聊天機器人並不完全像人類一樣聊天,但它們通常看起來很像。 他們還可以寫學期論文和詩歌,幾乎可以就任何他們遇到的主題進行即興演奏。

因為他們從互聯網上學習。 想一想網絡上有多少錯誤信息和其他垃圾。

這些系統也不會逐字逐句地重複互聯網上的內容。 利用所學知識,他們自己生成新文本,AI 研究人員稱之為“幻覺”。

這就是為什麼如果你問同一個問題兩次,聊天機器人可能會給你不同的答案。 他們會說任何話,不管它是否基於現實。

人工智能研究人員喜歡使用使這些系統看起來像人類的術語。 但幻覺只是“他們編造東西”的一個吸引人的術語。

這聽起來令人毛骨悚然和危險,但這並不意味著該技術以某種方式存在或意識到其周圍環境。 它只是使用在互聯網上找到的模式生成文本。 在許多情況下,它以令人驚訝和令人不安的方式混合和匹配模式。 但它不知道自己在做什麼。 它不能像人類那樣推理。

他們正在努力。

通過 ChatGPT,OpenAI 嘗試控制該技術的行為。 當一小群人私下測試該系統時,OpenAI 要求他們對其響應進行評分。 它們有用嗎? 他們說的是真的嗎? 然後 OpenAI 使用這些評級來磨練系統並更仔細地定義它會做什麼和不會做什麼。

但是這樣的技術並不完美。 今天的科學家不知道如何建立完全真實的系統。 他們可以限制不准確和怪異,但無法阻止它們。 控制奇怪行為的方法之一是保持聊天簡短。

但是聊天機器人仍然會吐出不真實的東西。 隨著其他公司開始部署這類機器人,並不是每個人都能很好地控制自己能做什麼和不能做什麼。

底線:不要相信聊天機器人告訴你的一切。

You may also like

發表評論

關於我們

china-today.news 通過易於閱讀的帖子介紹了最新熱門新聞,政治,技術,創業公司,健康和科學方面的最新和重要突破。新興技術正在改變我們社會和文化的未來。我們的使命是收集,記錄和傳播有關變革性技術和科學發現的信息報告,這些報告可能會改變我們的文化,生活和行業。

最新的文章

Copyright ©️ All rights reserved. | China Today