技術 人工智能究竟帶來了哪些危險?

人工智能究竟帶來了哪些危險?

經過 admin
0 評論

3 月下旬,超過 1,000 名從事人工智能及其相關工作的技術領導者、研究人員和其他權威人士簽署了一封公開信,警告人工智能技術“對社會和人類構成深遠風險”。

包括特斯拉首席執行官兼 Twitter 所有者埃隆馬斯克在內的該組織敦促人工智能實驗室停止開發其最強大的系統六個月,以便他們能夠更好地了解該技術背後的危險。

“只有當我們確信它們的影響將是積極的並且它們的風險將是可控的時候,才應該開發強大的人工智能係統,”信中說。

這封現在有超過 27,000 個簽名的信很簡短。 它的語言很廣泛。 而這封信背後的一些名字似乎與 AI 有著矛盾的關係,例如馬斯克先生正在建立自己的 AI 初創公司,他是寫這封信的組織的主要捐助者之一。

但這封信代表了人工智能專家越來越擔心最新的系統,尤其是舊金山初創公司 OpenAI 推出的 GPT-4 技術,可能會對社會造成危害。 他們相信未來的系統會更加危險。

一些風險已經到來。 其他人不會幾個月或幾年。 還有一些純粹是假設。

蒙特利爾大學教授兼人工智能研究員 Yoshua Bengio 表示:“我們理解非常強大的人工智能係統可能出現什麼問題的能力非常弱。” “所以我們需要非常小心。”

Bengio 博士可能是簽署這封信的最重要的人。

Bengio 博士與另外兩位學者——杰弗裡·辛頓 (Geoffrey Hinton) 和 Yann LeCun (直到最近還是谷歌的研究員) 以及現在 Meta 的首席人工智能科學家 (Facebook 的所有者) 合作——在過去的四十年裡開發了驅動 GPT-4 等系統的技術. 2018 年,研究人員因其在神經網絡方面的工作而獲得了通常被稱為“計算領域的諾貝爾獎”的圖靈獎。

神經網絡是一種通過分析數據來學習技能的數學系統。 大約五年前,谷歌、微軟和 OpenAI 等公司開始構建神經網絡,從稱為大型語言模型或 LLM 的大量數字文本中學習

通過查明文本中的模式,法學碩士學習自己生成文本,包括博客文章、詩歌和計算機程序。 他們甚至可以進行對話。

這項技術可以幫助計算機程序員、作家和其他工作者更快地產生想法和做事。 但 Bengio 博士和其他專家也警告說,法學碩士可以學習不想要的和意想不到的行為。

這些系統可能會生成不真實的、有偏見的和有毒的信息。 像 GPT-4 這樣的系統會弄錯事實並編造信息,這種現象稱為“幻覺”。

公司正在努力解決這些問題。 但是像 Bengio 博士這樣的專家擔心,隨著研究人員使這些系統變得更加強大,它們會帶來新的風險。

由於這些系統以完全可信的方式提供信息,因此在使用它們時可能很難將真實與虛構區分開來。 專家們擔心人們會依賴這些系統來獲得醫療建議、情感支持以及他們用來做決定的原始信息。

亞利桑那州立大學計算機科學教授 Subbarao Kambhampati 說:“無法保證這些系統在你交給它們的任何任務上都是正確的。”

專家們還擔心人們會濫用這些系統來傳播虛假信息。 因為他們可以像人類一樣交談,所以他們可以出人意料地具有說服力。

“我們現在擁有可以通過自然語言與我們互動的系統,我們無法區分真假,”本吉奧博士說。

專家們擔心新的人工智能可能會成為工作殺手。 目前,像 GPT-4 這樣的技術傾向於補充人類工作者。 但 OpenAI 承認他們可以取代一些工人,包括在互聯網上管理內容的人。

他們還不能複制律師、會計師或醫生的工作。 但他們可以取代律師助理、私人助理和翻譯。

OpenAI 研究人員撰寫的論文 據估計,80% 的美國勞動力至少有 10% 的工作任務會受到 LLM 的影響,而 19% 的工人可能會看到至少 50% 的工作任務受到影響。

“有跡象表明,死記硬背的工作將會消失,”西雅圖研究實驗室艾倫人工智能研究所的創始首席執行官 Oren Etzioni 說。

一些簽署這封信的人還認為,人工智能可能會脫離我們的控製或毀滅人類。 但許多專家表示,這被誇大了。

這封信是由未來生命研究所的一個小組撰寫的,該組織致力於探索人類存在的生存風險。 他們警告說,由於人工智能係統經常從它們分析的大量數據中學習意想不到的行為,因此它們可能會帶來嚴重的、意想不到的問題。

他們擔心,隨著公司將 LLM 插入其他互聯網服務,這些系統可能會獲得意想不到的力量,因為它們可以編寫自己的計算機代碼。 他們表示,如果開發人員允許強大的人工智能係統運行他們自己的代碼,將會帶來新的風險。

加州大學聖克魯茲分校的理論宇宙學家和物理學家、Future of生命研究所。

“如果你考慮一個可能性較小的場景——事情真的開始了,沒有真正的治理,這些系統比我們想像的更強大——那麼事情就會變得非常、非常瘋狂,”他說。

Etzioni 博士說,關於生存風險的討論是假設性的。 但他表示,其他風險——尤其是虛假信息——不再是猜測。

“現在我們遇到了一些真正的問題,”他說。 “他們是善意的。 他們需要一些負責任的反應。 他們可能需要監管和立法。”

You may also like

發表評論

關於我們

china-today.news 通過易於閱讀的帖子介紹了最新熱門新聞,政治,技術,創業公司,健康和科學方面的最新和重要突破。新興技術正在改變我們社會和文化的未來。我們的使命是收集,記錄和傳播有關變革性技術和科學發現的信息報告,這些報告可能會改變我們的文化,生活和行業。

最新的文章

Copyright ©️ All rights reserved. | China Today