技術 紐約市開始規範人工智能在招聘中的使用方式

紐約市開始規範人工智能在招聘中的使用方式

經過 admin
0 評論

歐洲立法者正在完成 AI 法案的工作。 拜登政府和國會領導人制定了遏制人工智能的計劃。 上週,在參議院的證詞中,OpenAI 的首席執行官山姆奧特曼建議建立一個具有監督和許可權的聯邦機構。 這個話題是在日本舉行的七國集團峰會上提出來的。

在全面的計劃和承諾中,紐約市已成為 AI 監管方面的謙虛先驅。

市政府於 2021 年通過了一項法律,並通過了 上個月的具體規定 對於該技術的一項高風險應用:僱用和晉升決策。 執法從 7 月開始。

該市的法律要求在招聘中使用人工智能軟件的公司通知候選人正在使用自動化系統。 它還要求公司每年讓獨立審計員檢查技術是否存在偏見。 候選人可以請求並被告知正在收集和分析哪些數據。 公司將因違規而被罰款。

紐約市的重點方法代表了人工智能監管的重要前沿。 專家說,在某些時候,政府和國際組織製定的粗略原則必須轉化為細節和定義。 誰受到了技術的影響? 有什麼好處和壞處? 誰可以乾預,如何干預?

“如果沒有具體的用例,你就無法回答這些問題,”紐約大學副教授兼責任人工智能中心主任 Julia Stoyanovich 說

但甚至在它生效之前,紐約市的法律就已經招致了批評。 公共利益倡導者說這還不夠,而商業團體則說這是不切實際的。

兩個陣營的抱怨都指向了監管人工智能的挑戰,人工智能正以迅猛的速度前進,後果不明,激起了人們的熱情和焦慮。

不安的妥協是不可避免的。

斯托亞諾維奇女士擔心城市法存在漏洞,可能會削弱它。 “但這比沒有法律要好得多,”她說。 “除非你嘗試監管,否則你不會學會如何監管。”

該法律適用於在紐約市有員工的公司,但勞工專家預計它會影響全國的做法。 至少有四個州——加利福尼亞州、新澤西州、紐約州和佛蒙特州——以及哥倫比亞特區也在製定法律來規範人工智能在招聘方面的作用。 伊利諾伊州和馬里蘭州已頒布法律限制特定人工智能技術的使用,通常用於工作場所監控和求職者篩選。

紐約市的法律是在尖銳矛盾的觀點衝突中產生的。 市議會在市長比爾·德布拉西奧 (Bill de Blasio) 任期的最後幾天通過了該法案。 隨後進行了多輪聽證會和超過 100,000 字的公眾評論——由該市的規則制定機構消費者和工人保護部監督。

一些批評人士說,其結果是過度同情商業利益。

政策和民權組織民主與技術中心主席亞歷山德拉吉文斯說:“本來可以成為具有里程碑意義的法律被淡化以失去效力。”

這是因為法律將“自動就業決策工具”定義為用於“實質性協助或取代自主決策”的技術,她說。 吉文斯女士說,該市採用的規則似乎對這一措辭進行了狹義的解釋,因此只有當人工智能軟件是招聘決定中的唯一或主要因素,或被用來否決人類時,才需要進行審計。

她說,這排除了使用自動化軟件的主要方式,招聘經理總是做出最終選擇。 她說,人工智能驅動的歧視的可能性通常來自篩選成百上千名候選人到少數人或有針對性的在線招聘以產生候選人庫。

吉文斯女士還批評法律限制了受到不公平待遇的群體的種類。 它涵蓋基於性別、種族和族裔的偏見,但不包括對年長工人或殘疾人的歧視。

“我最擔心的是,當我們應該向我們的政策制定者提出更多要求時,這會成為全國范圍內的模板,”吉文斯女士說。

市政府官員說,法律的範圍縮小了,以使其更加尖銳,並確保它具有針對性和可執行性。 委員會和工人保護機構聽取了許多聲音,包括公共利益活動家和軟件公司。 官員們表示,其目標是權衡創新與潛在危害之間的權衡。

“這是確保人工智能技術以合乎道德和負責任的方式使用的重大監管成功,”羅伯特霍爾登說,他在法律通過時擔任委員會技術委員會主席,現在仍然是委員會成員。

紐約市正試圖在聯邦工作場所法律的背景下解決新技術問題,並製定了可追溯到 1970 年代的招聘指南。 平等就業機會委員會的主要規則規定,雇主使用的任何做法或選擇方法都不應對女性或少數民族等受法律保護的群體產生“不同的影響”。

企業界批評了這項法律。 在今年的一份文件中,包括微軟、SAP 和 Workday 在內的行業組織軟件聯盟表示,對人工智能進行獨立審計的要求“不可行”,因為“審計領域剛剛起步”,缺乏標準和專業監督機構。

但一個新興領域是一個市場機會。 專家表示,人工智能審計業務只會增長。 它已經吸引了律師事務所、顧問和初創企業。

銷售人工智能軟件以協助招聘和晉升決策的公司普遍接受了監管。 有些已經接受了外部審計。 他們將這一要求視為潛在的競爭優勢,證明他們的技術擴大了公司的求職者範圍並增加了工人的機會。

“我們相信我們可以遵守法律並展示好的人工智能是什麼樣子,”矽谷初創公司 Eightfold AI 的總法律顧問 Roy Wang 說,該公司生產用於協助招聘經理的軟件。

紐約市法律還採取了一種可能成為規範的 AI 監管方法。 該法律的關鍵衡量標準是“影響率”,即計算使用該軟件對受保護的求職者群體的影響。 它沒有深入研究算法如何做出決策,這個概念被稱為“可解釋性”。

批評人士說,在像招聘這樣影響生活的申請中,人們有權要求解釋是如何做出決定的。 但一些專家表示,像 ChatGPT 類軟件這樣的 AI 正變得越來越複雜,可能使可解釋 AI 的目標遙不可及。

Responsible AI Institute 的執行董事 Ashley Casovan 說:“重點變成了算法的輸出,而不是算法的工作。”該機構正在為在工作場所、醫療保健和金融領域安全使用 AI 應用程序開發認證。

You may also like

發表評論

關於我們

china-today.news 通過易於閱讀的帖子介紹了最新熱門新聞,政治,技術,創業公司,健康和科學方面的最新和重要突破。新興技術正在改變我們社會和文化的未來。我們的使命是收集,記錄和傳播有關變革性技術和科學發現的信息報告,這些報告可能會改變我們的文化,生活和行業。

最新的文章

Copyright ©️ All rights reserved. | China Today