在智能科技和經濟的發展上技術恐懼和技術樂觀派都不可取
2018-05-17 

自古以來,對技術的發展就存在著兩種極端的看法:技術崇拜和技術恐懼。技術崇拜論者認為,技術是化解人與自然之間矛盾的唯一手段和途徑。而技術恐懼論者則認為技術在帶來生產力解放的同時,可能對人類帶來危害,甚至是毀滅。從布魯諾到19世紀英國紡織工人摧毀機器,都表現出人類對技術可能引發的社會問題的恐懼。進入21世紀,人工智能技術的興起再次引起人們對技術發展可能帶來的社會問題的質疑。其中就業、倫理安全和是否存在技術泡沫成為普遍關心的話題。

技術在減少部分工作的同時創造更多的就業機會。早在2013年,Carl Benedikt Frey and Michael Osborne在考察702種職業的計算能力之后認為,美國47%的工人都面臨因工作自動化而導致的失業風險。其中,大部分運輸業、客運業和公關領域都可能被計算機所取代。他們認為,機器學習近期的發展將占據大量的職業崗位。在他們后續的研究中指出,英國有35%的職業可能被取代,而在日本這一比例將高達49%。

但是我們考察一下技術進步與人口增長之間的關系時,就可以發現技術進步是人口增長的決定因素。例如,20世紀中期之后的人口的快速增長,是工業革命的結果。與每一次科技產業革命相伴隨的,是勞動分工的細化和新的產業部門的出現,同時會改造傳統產業部門。技術進步不僅可能使部分職業消失,而且會因為分工的細化而創造出更多的就業機會。

人工智能的發展同樣是這樣,人工智能技術的應用一方面會造成部分職業的消失,例如,保安、客服和翻譯工作者,另一方面卻帶來了軟件開發者、技術和服務維護人員就業需求的增加。同時,人工智能技術的應用會提高勞動生產率和減少工作強度,使人類有更多的時間從事知識密集的創造性活動和就業彈性高的服務行業。

人工智能可能帶來倫理問題。隨著人工智能越來越廣泛的應用,算法日益影響人們的日常經濟和生活,甚至主導著人類的經濟和社會事物。從算法如何影響人類的決策行為出發,人工智能是否會帶來一系列倫理問題,成為人們關注的話題。

人工智能可能帶來的倫理問題主要表現在四個方面:

第一,人工智能應用于人類決策過程中可能存在著算法歧視。例如,深度學習屬于典型的“黑箱”算法,通過持續的數據訓練,最終的決策程序和機制非常復雜,甚至連設計者都無法清楚算法是如何決策的。如果被算法應用于包括司法和信貸等涉及人身利益和情感場合,可能出現性別歧視和種族歧視等問題。

第二,隱私問題。一方面在深度學習過程中使用了大量的敏感數據,數據在應用過程中可能把個人隱私披露出去,另一方面大量的數據產生于交易過程中,數據頻繁流動可能造成個人對數據控制和管理的疏漏,帶來一系列隱私泄露問題。

第三,責任和安全問題。為防正人工智能給人類帶來的安全問題,繼阿西莫提出了機器人三定律之后,2017年阿西洛馬會議上進一步提出了23條人工智能原則。尤其是隨著自動駕駛汽車和智能機器人的發展,可能造成的人身和財產安全的責任問題成為考驗人類智慧的重要領域。因為現有的法律體系是基于人的行為制定的,而機器的開發者在開發過程中很難預測到機器人未來的行為會造成什么樣的危害。

第四,機器人的權利問題。隨著機器人越來越智能,在法律如何界定它們的身份,是自然人、還是法人、物或者動物?都需要認真思考和界定。


中國新一代人工智能發展戰略研究院
南開大學經濟研究所
2018年5月15日


南開經濟調查 | 知中國服務中國
聯系我們或尋求合作,可發送郵件至 info#nkear.com(發送時請將#改為@)
啪嗒啪嗒高清视频在线观看