用戶名:

密碼:

驗證碼:

當前位置:新媒動態 > 科技新聞 > 科技前沿 >

人工智能發展需要“導航”

2019-04-19 03:12 記者觀察網 點擊次數 :

人工智能正引發最重要的技術變革和社會變革,它在深刻改變人類物質生產體系的同時,也將對人類行為和社會關系產生深遠的影響。

2018年以來,人工智能安全事故、倫理道德侵害事件頻發,社會各界普遍關注,特別是全球首例自動駕駛致死事件更是引發了公眾對人工智能發展的議論。

實際上,近年來伴隨人工智能向各行業、各領域的快速滲透,聯合國、電氣和電子工程師協會(IEEE)等國際組織已密集推出人工智能發展原則,以期為世界各國的人工智能監管提供參考借鑒,歐盟、日本、新加坡等國家和地區已明確提出人工智能道德倫理準則,人工智能從業者也在積極探索行業自律相關經驗。然而總體來看,準則易定,實施難行,要克服道德準則主觀性,要探索全球人工智能治理準則,并達成多方共識,仍然有較長一段路要走。

人工智能發展需要“導航”

人臉識別系統。光明圖片/視覺中國

人工智能發展需要“導航”

當地時間2018年3月20日,美國亞利桑那州坦佩市,美國國家運輸安全委員會展開調查。18日晚,一輛以自動駕駛模式運行的優步汽車在坦佩市撞倒一名過馬路的行人,并導致該行人死亡。光明圖片/視覺中國

人工智能發展需要“導航”

當地時間2013年4月23日,英國倫敦,國際機器人武器控制委員會的成員發起“停止機器人殺手”活動,希望各國能夠以法律形式約束全自動殺人武器的研制和部署。光明圖片/視覺中國

1、人工智能安全事故多發 社會關注度日益提升

自動駕駛車輛撞死路人,應該由誰來擔責?

2018年3月,優步自動駕駛汽車在美國亞利桑那州坦佩市碰撞到一個橫穿馬路的行人,該行人在送往醫院后不治身亡,這是全球首起自動駕駛車輛在公共道路上撞擊行人致死事件。意外發生時,汽車處于自動駕駛模式,駕駛座上有1名人類安全駕駛員,該駕駛員并未參與駕駛操作。那么,該由誰對這起事故承擔法律責任?人類駕駛員、汽車制造商沃爾沃公司還是自動駕駛系統提供方優步公司?

一年后的2019年3月5日,美國亞利桑那州檢察官裁定優步公司不承擔刑事責任,同時建議警方對優步的安全駕駛員進行進一步調查。理由是,這一自動駕駛車輛處在自動駕駛模式時,其剎車的責任應由安全駕駛員負責。即優步公司的程序已設定,在自動駕駛模式下,即使遇到緊急情況,系統也不能啟用緊急剎車功能,而是由人類駕駛員啟動。優步公司制定的這一算法規則成為該公司被裁定不承擔刑事責任的重要依據,那么優步這一規則的合理性又該由誰來判定?法律問題的背后實際是倫理準繩的設定。

侵犯個人隱私,涉嫌種族歧視,這樣的人工智能產品和服務你能接受嗎?

日前,美國科技巨頭亞馬遜公司向執法機構、私人企業銷售人臉識別軟件Rekognition,美國媒體和公眾認為,這將對個人隱私造成嚴重威脅。因為,這款軟件可以讓政府和私企在任何有攝像頭的地方追蹤到普通民眾,同時相關技術還因為有色人種被錯誤識別匹配的比例過高而受到種族歧視的質疑。

2018年7月,美國公民自由聯盟(ACLU)的一項測試顯示,Rekognition曾將535名美國國會議員中的28人誤判為罪犯。對于有色人種國會議員識別的錯誤率為39%,遠超對整個國會議員識別的錯誤率。2019年1月,麻省理工學院的一項研究顯示,IBM和微軟公司研發的人臉識別與分析軟件也都存在種族和性別偏見問題。

人工智能用于研發戰爭機器人會加劇軍備競賽嗎?

早在21世紀初,美國已將無人系統用于軍事活動。特別是近期,美國部署啟動了諸多人工智能軍事項目,包括各類軍用無人車、無人機、無人船等。谷歌、微軟等公司都參與了軍用人工智能技術與系統的研發。

2018年4月,3100多名谷歌員工聯名請愿,敦促公司終止與美國國防部合作開發的Project Maven人工智能武器項目。

2018年2月,韓國科學技術院KAIST與韓國軍工企業Hanwha Systems合作共建“國防和人工智能融合研究中心”,該中心目標是“開發應用于軍事武器的人工智能技術,參與全球自主武器研發競爭”,而Hanwha Systems的母公司韓華集團因為制造集束彈藥已被聯合國列入黑名單。2018年4月,全球20多個國家的50多名頂尖學者在公開信中聯名抵制韓國科學技術院的這一行為,“韓國科學技術院研發自主武器將會加速人工智能軍備競賽,這樣的技術可能導致更大規模戰爭加速到來,如果自主武器研制成功,戰爭速度之快、規模之大將是前所未有的,也有可能成為恐怖分子的武器”。

2、國際社會密集推出人工智能的應用研發準則

以聯合國為代表的國際組織,以及匯聚了眾多人工智能學術界和產業界人士的阿西洛馬會議等,都在積極探索相關原則與解決路徑,以期為世界各國的人工智能監管提供參考借鑒。

聯合國高度關注人工智能與自動化系統等應用的安全、倫理和道德問題,呼吁共同應對人工智能發展所帶來的全球性挑戰。

聯合國主要聚焦自動化武器運用,早在2014年便開始籌備起草《特定常規武器公約》,以限制人工智能殺手武器的研制,到2016年有包括中國在內的123個國家的代表同意締結該公約。近兩年,隨著新一輪人工智能熱潮的到來,聯合國高度重視人工智能、機器人、自動化等在民用領域的廣泛應用。2016年8月,聯合國教科文組織與世界科學知識與技術倫理委員會聯合發布了《機器人倫理初步報告草案》,專門提出了機器人制造和應用的倫理道德問題和責任分擔機制,并強調了可追溯性的重要性,即機器人的行為及決策過程應全程處于監管之下。

2017年6月,聯合國國際電信聯盟在日內瓦舉行了主題為“人工智能造福人類”的全球峰會,圍繞人工智能的最新發展,人工智能對道德、安全、隱私以及監管等帶來的挑戰展開討論,同時呼吁各國共同探討如何加快推進人工智能大眾化進程,并借以應對貧困、饑餓、健康、教育、平等和環境保護等全球性挑戰。

2018年4月,聯合國“致命性自主武器系統問題政府專家組”在日內瓦召開會議,80余國的官員及專家共同討論人工智能的武器化問題。

阿西洛馬人工智能原則探討如何確保人工智能為人類利益服務。這一原則源自2017年1月,未來生命研究所在美國加州的阿西洛馬市召開的題為“有益的人工智能”的人工智能會議。來自世界各地,覆蓋法律、倫理、哲學、經濟、機器人、人工智能等眾多學科和領域的專家,共同達成了23條人工智能原則,呼吁全世界在發展人工智能的時候嚴格遵守這些原則,共同保障人類未來的利益和安全。這23條原則分為三大類,包括科研問題、倫理和價值問題以及更長遠的問題。包括霍金、埃隆·馬斯克、德米斯·哈薩比斯等在內的近4000名各界人士表示對此支持。



(此文不代表本網站觀點,僅代表作者言論,由此文引發的各種爭議,本網站聲明免責,也不承擔連帶責任。)

(責任編輯:主編)
文章人氣:
(請您在發表言論時自覺遵守互聯網相關政策法律法規,文明上網,健康言論。)
用戶名:
驗證碼:
首頁 | 新聞資訊 | 財經股票 | 科技新聞 | 汽車資訊 | 娛樂八卦 | 體育新聞 | 房產樓市 | 旅游資訊 | 健康養生 | 明星時尚 | 主持人主 |
江苏快3开奖结果今天