人工智能時代,我們已初嚐了AI的甜頭,一切都是那麼激動人心。但Facebook數據泄露事件以及現在層出不窮的人工智能歧視案例都說明,技術並不是一股中性的力量。AI對社會的影響越來越大,如何確保AI在司法、教育、招聘和醫療等重要領域做出正確、合理、公平的決策顯得越發重要。正所謂“能力越大,責任越大”,我們必須儘快着手建立原則體系,協助相關組織監督AI決策,讓AI承擔起相應的社會責任。
在路上隨機問一個人對
人工智能(AI)的看法,大多數人表現出的態度都是喜憂參半。存在這樣矛盾的態度並不奇怪。AI在很多領域的表現既讓我們感到害怕又讓我們充滿希望。Fjord 發佈的2018年趨勢預測報告對商業、技術和設計等領域做出預測,並提出瞭解決AI憂慮的可行方法:制定AI工作原則,讓AI承擔社會責任。
人工智能——硬幣的兩面
目前,看好AI的人對人工智能的成就沾沾自喜。他們很難不爲之感到開心:我們總是自然而然地將技術與進步聯繫在一起。人們普遍認爲“更好、更快、更智能”就一定意味着改善、高效和豐富化。AI通過多種方式向我們展示了上述優點。隨着智能機器學習人類知識,未來將出現優化的全新工作方式。新的工作將會出現,而且工作將變得更有趣。我們已經初嚐了AI的甜頭,一切都是那麼激動人心。
但技術並不是一股中性力量。AI對社會的影響越來越大,這體現在刑事司法、教育、招聘和醫療保健等方面,因此有必要嚴肅對待AI決策制定的運用和管理。如果你的工作、住房和貸款都由算法決定,情況將如何?
讓不透明的“黑箱子”決定資源的分配將會引發混亂。賦予算法決定能力的同時必須確保其承擔相應的重大責任。至少有必要讓智能機器做到對它們的決定做出解釋並說明該決定的可行性所在。
我們如何確保AI在從貸款到住房等各大領域做到公平透明、以人爲本?通過建立原則體系協助相關組織監督AI的決策,讓AI承擔社會責任。如今,相關技術問題的出現使我們意識到加強AI社會責任有助於解決我們生活中的關鍵問題。
1、爲什麼我總是感覺被監視?
隨着各類攝像設備層出不窮、AI以驚人的速度進步發展,電腦成爲了視覺學習者。從面部識別付款到監控嬰兒睡覺時的情況,機器學習的應用無處不在。但隨着大量視覺數據被用來進行深度分析,如何確保AI做到負責地收集視覺數據成爲一大難題。
電腦分析人類情緒和行爲的能力還有待提高,但相關組織必須快速決定哪些視覺數據可以被電腦所用。機器必須學會如何在不對人類造成困擾的情況下運用數據。此外,相關公司必須學會篩選數據:在收集過程中,要確保所收集的視覺數據既有效又不會得罪人或違法。
2、AI比你自己更懂你
很快,AI會比你更瞭解你自己的愛好。智能算法已經應用到自動化語音聊天、語音和信息平臺,促進當今零售業的發展。但品牌創建卻似乎因爲算法的出現而不再那麼重要。受衆定向型算法降低了品牌建設、品牌代言和公關工作的重要性。而且由於實體店已經不如過去那麼隨處可見,AI的推薦就成了客戶下單的主要依據。
企業品牌應當學會小心避開AI的消極影響,學會在利用電商平臺的同時不失去客戶的信任。AI的影響力越來越大,以至於它可以操縱我們並使我們陷入困境。我們的家裏、車裏都有AI的存在,只要我們拿着定位手機,不論走到哪裏AI都如影隨形。此外,AI還可能被入侵以限制用戶的選擇。因此針對信息真實性和防止操縱,訂立AI操作規範十分有必要。
3、算法將成爲你的新同事
雖然人們對機器人取代人類表示擔憂,但AI在未來職場上的角色並不是隻有這一個可能性。的確,大量工作將被淘汰,但新的工作也將出現。隨着AI和人類學會互相配合而不是互相競爭,工作方式將被優化。
制定AI工作原則,加強其社會責任是機器和人類在職場得以共存的關鍵所在。我們應該提供特定的工作培訓和輔導項目以幫助人類適應新的工作方式。此外,在引導AI完成人機協作項目的同時也要考慮AI作爲項目“另一類用戶”的需求所在,這就需要機器學會問正確的問題並降低模糊性。這一過程中確保算法透明性尤爲重要。AI和人類一樣也會形成偏見,因此有必要確保參與工作的人、數據與機器的多樣化以避免偏見。
以上三大趨勢表明確保AI承擔社會責任十分重要。AI已經快速地滲透到我們生活的方方面面,因此現在就應着手製定AI的工作原則。