情況如下:原標題:微軟前執(zhí)行副總裁沈向洋受聘清華大學,首堂課談AI責任圖片來源:清華大學記者|彭新

3月5日,清華大學宣布,通過視頻連線為正在西雅圖清華大學全球創(chuàng)新學院(GIX)大樓授課的沈向洋博士頒發(fā)雙聘教授聘書,這也是清華大學首次以視頻會議方式在線舉行聘任儀式。
沈向洋是著名的計算機視覺和圖形學專家,1996年加入微軟,1999年回北京參與創(chuàng)立微軟中國研究院。在微軟期間,歷任微軟亞洲研究院院長兼首席科學家,微軟全球資深副總裁、全球執(zhí)行副總裁。
本次聘任儀式,是沈向洋在去年宣布離職微軟后首次公開亮相。2019年11月13日,微軟CEO薩提亞宣布沈向洋將在2020年初離開微軟。2020年3月2日,“清華大學本科教學”官方公眾號發(fā)布了題為《沈向洋雙聘教授聘任儀式暨春風講堂第四講》的通知,正式確認沈向洋去向。
聘任儀式后,沈向洋在線發(fā)表了題為“Engineering Responsible AI”的報告并通過在線平臺公開直播,這也被視為其在清華的“第一堂課”。
沈向洋稱,近年來人工智能領域取得的進步已經(jīng)超出了此前的預期。但是,許多人工智能領域的從業(yè)人員并未充分考慮其可能產(chǎn)生的社會影響。如今企業(yè)界、學術(shù)界和政府需要立即采取行動以應對相關(guān)的社會挑戰(zhàn)。
所謂Responsible AI,即負責任的人工智能。2018年,微軟發(fā)表《未來計算》(The Future Computed)一書,其中提出了人工智能開發(fā)的六大原則:公平、可靠和安全、隱私和保障、包容、透明、責任。在報告開始階段,沈向洋再次引用該原則,重申其重要性。
在報告中,沈向洋回顧了當前AI的進展,他認為,如今AI技術(shù)已經(jīng)可以做決策,這是AI技術(shù)發(fā)展過程中非常重要的一步,但是人們依然缺乏對AI做決定這一過程的理解。舉例而言,當人類在生產(chǎn)電氣零部件時,都會有相應的檢查記錄,哪里出現(xiàn)問題,就可以對操作文件進行分析,從而找出問題。但是,AI卻沒有這樣的環(huán)節(jié),導致問題很難排查發(fā)現(xiàn)。
AI這一特點在微軟內(nèi)部同樣表現(xiàn)如此,“我們對微軟 500名機器學習領域工程師進行了調(diào)查,我們問他們?nèi)绾胃纳茩C器學習系統(tǒng)?在經(jīng)過調(diào)查后,得出結(jié)論:如今機器學習工程師面臨的最大問題之一是,他們知道出了一些問題,但是不知道具體是哪里出了問題,也并不知道為什么會出現(xiàn)問題?!?沈向洋說。
在對AI訓練結(jié)果的解釋性、AI的偏見上,研究人員的缺陷也在影響AI發(fā)展。沈向洋以圖形識別狗舉例,盡管研究人員可以創(chuàng)造準確率較高的識別算法,區(qū)別圖像中的狼和哈士奇,但仍無法解釋其中原理。實際上,AI的判斷并非通過圖片中的動物部分,而是通過圖片中除了動物之外的部分進行的。
在AI的偏見上,一個經(jīng)典例子就是黑色人種的人臉識別。通常,AI對黑人女性比白人的面部識別準確率要低。但經(jīng)過調(diào)整再次訓練模型后,這種識別率的差距可以降低,達到可接受水平。從不斷的訓練中,研究者得出結(jié)論,這種偏見來自于訓練采用的樣本數(shù)據(jù)。因為研究者人員更多采用非黑色人種的數(shù)據(jù)樣本。
報告中,沈向洋還引用《麻省理工科技評論》的一則新聞報道,該報道稱。通過評估算法,AI可能將錯誤的人送進監(jiān)獄。在沒有仔細評估的前提下,AI預測犯罪可能會加劇對深色皮膚人士的不平等,而非提高社會安全。
最后,沈向洋總結(jié)道,“我們是第一代和AI共存的人類,無論喜歡與否都別無選擇,人類得決定怎么構(gòu)建、使用AI。而一個由AI做決定、人類無法理解的世界是不能接受的?!?/p>
本文文章轉(zhuǎn)載自新浪新聞
