(從左到右分別是:亞馬遜的貝索斯、IBM的羅曼蒂、微軟的納德拉、谷歌的皮查伊和Facebook的扎克伯格)
世界5大科技公司現在試圖制定圍繞人工智能開發(fā)的倫理道德標準。雖然科幻影片關注AI對人類的威脅,但谷歌母公司Alphabet、亞馬遜、Facebook、IBM和微軟的研究人員開會談論更多的卻是具體問題,如AI對工作、交通甚至戰(zhàn)爭的影響。
科技公司長期以來一直對人工智能機器所能做的事情承諾過多,然而,AI領域在很多方面取得快速進步,從自動駕駛汽車和語音識別機器如亞馬遜的Echo到新一代自動作戰(zhàn)武器系統(tǒng)。這個行業(yè)團體將做什么或說什么——甚至團體的名稱——都還未討論出來。
但4位參與建立這種行業(yè)合作伙伴關系的人士稱,他們的基本目的很清楚:確保AI研究有利于人們而不是傷害人們。由于未被授權公開談論此事,他們要求匿名。
參與這次行業(yè)討論的微軟研究人員埃里克·霍維茨在斯坦福大學創(chuàng)辦的一個團體,周四發(fā)表報告強調了行業(yè)聯合行動的重要性。這個被稱為“人工智能百年研究”的斯坦福項目制定計劃,將在未來100年里每5年發(fā)表一份有關AI對社會影響的詳細報告。
科技行業(yè)里的人們的一個主要關注點是,監(jiān)管機構是否圍繞他們的AI工作制定法規(guī)。因此他們將努力制定設立自我監(jiān)管組織的框架,“我們要說的是什么是錯的,什么是對的”。雖然科技行業(yè)以競爭出名,但有時這些公司也會合作實現共同的最佳利益。例如,上世紀90年代科技公司就對電子商務交易的加密標準達成一致,為后面20年互聯網商業(yè)的發(fā)展奠定了基礎。
這份題為“2030年人工智能與生活”的斯坦福報告的作者們認為,AI的監(jiān)管是不可能實現的。報告稱:“研究小組一致認為,全面監(jiān)管AI具有誤導性,因為AI還沒有明確的定義。(不屬于任何單一的事情),在不同領域風險和考慮事項完全不同?!?/p>
報告建議,提高各級政府對AI技術的認識和意識,并呼吁增加對AI的公共和私人支出。IBM沃森人工智能部門總經理大衛(wèi)·肯尼稱:“政府可以發(fā)揮作用,我們看到了這點?!彼硎?,面臨的挑戰(zhàn)是“很多時候監(jiān)管落后于技術”。
5家公司發(fā)表的一份備忘錄制定了臨時計劃,將在9月中旬宣布成立一個新的組織。但參與談判的一位人士稱,谷歌的DeepMind被要求以獨立身份參與該組織。這個行業(yè)團體模仿了類似的人權行動全球網絡倡議(Global Network Initiative),在這個倡議中企業(yè)和非政府組織關注言論自由和隱私權。
具有人工智能背景的LinkedIn創(chuàng)始人雷德·霍夫曼,在單獨與麻省理工學院媒體實驗室談判,討論資助一個研究人工智能對社會經濟影響的項目。麻省理工的這個項目和該行業(yè)合作團體都試圖將科技進步更緊密與社會經濟政策問題聯系起來。麻省理工的團體一直在討論與“圈內社會”共同設計新AI和機器人系統(tǒng)的想法。
這個詞語指的是有關如何設計要求與人互動的電腦和機器人系統(tǒng)的長期討論。例如,五角大樓最近開始明確討論一項軍事戰(zhàn)略,要求使用人類可以控制殺人決定的AI,而不是討論機器的責任。麻省理工媒體實驗室主任和紐約時報董事Joichi Ito表示:“我要指出的關鍵問題是,計算機科學家不擅長與社會科學家和哲學家交流。我們要做的是支持和加強社會科學家在制定政策上做更多研究?!?/p>
斯坦福報告試圖確定普通北美公民在電腦和機器人系統(tǒng)模仿人類能力上面臨的問題。報告的作者們研究了現代生活的8個方面,包括醫(yī)療衛(wèi)生、教育、娛樂和就業(yè),但特地不提戰(zhàn)爭問題。他們稱,軍方的AI應用不是他們的研究范圍和技術,但不排除未來關注武器問題。
報告也沒有考慮一些計算機專家提出的“奇點”可能導致機器更智能并威脅人類的想法。報告的作者斯通博士稱:“這是報告有意識地決定不考慮這點?!?/p>