四個月前,舊金山的一家小公司推出了一款可以回答複雜問題、寫詩甚至模仿人類情感的新型在線聊天機器人,成為科技行業的熱門話題。
現在,該公司又推出了為其聊天機器人提供支持的新版技術。 該系統將在矽谷擁抱人工智能的競賽中加大賭注,並決定誰將成為技術行業的下一代領導者。
OpenAI 擁有約 375 名員工,但得到了微軟和行業知名人士數十億美元的投資支持,週二表示,它已經發布了一項名為 GPT-4 的技術。 它旨在成為支持聊天機器人和各種其他系統(從搜索引擎到個人在線導師)的底層引擎。
大多數人將通過該公司的新版 ChatGPT 聊天機器人使用這項技術,而企業會將其整合到各種系統中,包括商業軟件和電子商務網站。 該技術已經推動聊天機器人向有限數量的使用微軟必應搜索引擎的人開放。
在短短幾個月內,OpenAI 的進步就讓科技行業陷入了幾十年來最不可預測的時刻之一。 許多行業領導者認為,人工智能的發展代表了一種根本性的技術轉變,與 20 世紀 90 年代初期網絡瀏覽器的發明一樣重要。 這種快速的改進讓計算機科學家感到震驚。
GPT-4 通過分析從互聯網上收集的大量數據來學習其技能,以多種方式改進了為原始 ChatGPT 提供支持的功能。 它更精確。 例如,它可以在統一律師考試中取得高分,立即計算某人的納稅義務並提供圖像的詳細描述。
但 OpenAI 的新技術仍然存在一些奇怪的類似人類的缺點,這些缺點讓業內人士和使用過最新聊天機器人的人感到不安。 它是某些學科的專家,而對另一些學科則是外行。 它可以在標準化測試中比大多數人做得更好,並為醫生提供精確的醫療建議,但它也會搞亂基本的算術。
將自己的未來押在這項技術上的公司可能——至少目前是這樣——不得不忍受不精確,這在一個從頭開始建立的行業中一直是禁忌,認為計算機比人類創造者更嚴格。
OpenAI 首席執行官山姆奧特曼在接受采訪時表示:“我不想讓它聽起來像是我們已經解決了推理或智能問題,而我們當然還沒有解決這些問題。” “但與現有的相比,這是向前邁出的一大步。”
其他科技公司可能會在一系列產品和服務中加入 GPT-4 的功能,包括微軟用於執行業務任務的軟件和希望為客戶提供虛擬試用其產品的新方法的電子商務網站。 許多行業巨頭,如穀歌和 Facebook 的母公司 Meta,也在開發自己的聊天機器人和人工智能技術。
ChatGPT 和類似技術已經在改變學生和教育工作者的行為,他們試圖了解這些工具是應該被接受還是應該被禁止。 由於系統可以編寫計算機程序並執行其他業務任務,因此它們也正處於改變工作性質的風口浪尖。
即使是最令人印象深刻的系統也傾向於補充而不是取代熟練工人。 這些系統不能代替醫生、律師或會計師使用。 仍然需要專家來發現他們的錯誤。 但他們很快就會取代一些律師助理(他們的工作由訓練有素的律師審查和編輯),許多人工智能專家認為他們將取代在互聯網上管理內容的工人。
OpenAI 總裁格雷格·布羅克曼 (Greg Brockman) 表示:“肯定存在中斷,這意味著一些工作崗位消失了,一些新工作崗位被創造出來。” “但我認為最終效果是進入壁壘降低,專家的生產力提高。”
週二,OpenAI 開始出售 GPT-4 的使用權,以便企業和其他軟件開發人員可以在其上構建自己的應用程序。 該公司還使用該技術構建了其廣受歡迎的聊天機器人的新版本,任何購買 ChatGPT Plus 訪問權限的人都可以使用它——一項每月收費 20 美元的訂閱服務。
一些公司已經在使用 GPT-4。 Morgan Stanley Wealth Management 正在構建一個系統,可以立即從公司文件和其他記錄中檢索信息,並以對話形式將其提供給財務顧問。 在線教育公司 Khan Academy 正在使用該技術構建自動化導師。
“這項新技術可以更像導師,”可汗學院的首席執行官兼創始人薩爾汗說。 “我們希望它能在學生完成大部分工作的同時教授學生新技術。”
與類似技術一樣,新系統有時會“產生幻覺”。 它會在沒有警告的情況下生成完全錯誤的信息。 當被問及列出最新癌症研究的網站時,它可能會提供幾個不存在的互聯網地址。
GPT-4 是一種神經網絡,是一種通過分析數據來學習技能的數學系統。 它與 Siri 等數字助理用來識別口頭命令和自動駕駛汽車用來識別行人的技術相同。
2018 年左右,谷歌和 OpenAI 等公司開始構建從大量數字文本中學習的神經網絡,這些數字文本包括書籍、維基百科文章、聊天記錄和發佈在互聯網上的其他信息。 它們被稱為大型語言模型,或 LLM
通過在所有文本中找出數十億個模式,法學碩士學習自己生成文本,包括推文、詩歌和計算機程序。 OpenAI 將越來越多的數據投入到其 LLM 中,該公司希望更多的數據意味著更好的答案。
OpenAI 還利用人類測試人員的反饋改進了這項技術。 當人們測試 ChatGPT 時,他們會對聊天機器人的回答進行評分,將有用和真實的回答與無用的分開。 然後,使用一種稱為強化學習的技術,系統花了幾個月的時間分析這些評級,並更好地了解它應該做什麼和不應該做什麼。
OpenAI 研究員盧克·梅茨 (Luke Metz) 表示:“人類會對他們喜歡看的東西和不喜歡看的東西進行評分。”
最初的 ChatGPT 基於名為 GPT-3.5 的大型語言模型。 OpenAI 的 GPT-4 從大量數據中學習。
OpenAI 的高管拒絕透露這款新聊天機器人從中學到了多少數據,但布羅克曼先生表示,該數據集是“互聯網規模的”,這意味著它涵蓋了足夠多的網站,可以提供互聯網上所有說英語的人的代表性樣本。
對於首次使用該技術的普通人來說,GPT-4 的新功能可能並不明顯。 但隨著外行和專家繼續使用該服務,它們可能會很快成為人們關注的焦點。
鑑於《紐約時報》的一篇長篇文章並要求對其進行總結,該機器人幾乎每次都會給出準確的總結。 向該摘要添加一些隨機句子,並詢問聊天機器人修改後的摘要是否準確,它會指出添加的句子是唯一不准確的地方。
奧特曼先生將這種行為描述為“推理”。 但這項技術無法複製人類的推理。 它擅長分析、總結和回答有關書籍或新聞文章的複雜問題。 如果被問及尚未發生的事件,它就不太擅長。
它可以寫一個笑話,但並不表明它了解真正會讓某人發笑的內容。 “它沒有抓住有趣之處的細微差別,”西雅圖著名實驗室艾倫人工智能研究所的創始首席執行官奧倫·埃奇奧尼 (Oren Etzioni) 說。
與類似的技術一樣,用戶可能會找到誘使系統進入奇怪和令人毛骨悚然的行為的方法。 當被要求模仿另一個人或遊戲行為時,這種機器人有時會轉向它被設計為遠離的區域。
GPT-4 也可以響應圖像。 給定一張照片、圖表或圖表,該技術可以提供詳細的、長段的圖像描述,並回答有關其內容的問題。 對於視力受損的人來說,這可能是一項有用的技術。
最近的一個下午,布羅克曼先生展示了系統如何對圖像做出反應。 他給了這個新的聊天機器人一張來自哈勃太空望遠鏡的圖像,並要求它“非常細緻地”描述這張照片。 它以四段描述作為回應,其中包括對橫跨照片的空靈白線的解釋。 聊天機器人寫道,“來自衛星或流星的軌跡”。
OpenAI 高管表示,該公司不會立即發布該技術的圖像描述部分,因為他們不確定它會如何被濫用。
構建和服務聊天機器人非常昂貴。 因為它是在更大量的數據上訓練的,所以 OpenAI 的新聊天機器人將增加公司的成本。 OpenAI 的首席技術官米拉·穆拉蒂 (Mira Murati) 表示,如果該服務產生過多流量,該公司可能會限制對該服務的訪問。
但從長遠來看,OpenAI 計劃構建和部署可以處理多種媒體的系統,包括聲音和視頻以及文本和圖像。
“我們可以採用所有這些通用知識技能,並將它們傳播到各種不同領域,”布羅克曼先生說。 “這將技術帶入了一個全新的領域。”