AI也要從娃娃抓起?用倫理打破科技權(quán)威
麻省理工媒體實(shí)驗(yàn)室的“個(gè)人機(jī)器人小組(Personal Robots group)”進(jìn)行了一項(xiàng)研究。他們邀請(qǐng)6至10歲的孩子去媒體實(shí)驗(yàn)室玩各種智能設(shè)備(比如亞馬遜的Alexa或Google Home)。在孩子們玩耍體驗(yàn)之后,研究員便一個(gè)個(gè)問他們?nèi)缦聠栴}:你認(rèn)為這個(gè)設(shè)備比你聰明、和你一樣聰明,還是沒有你聰明?以下是孩子們的回答:
來自2017年研究“谷歌你好,我可以吃掉你嗎?”作者Druga等。來源:Randi Williams
一位實(shí)驗(yàn)室成員Randi想要講其中小孩的故事。一個(gè)小女孩問道:“Alexa,樹懶都吃什么呀?”
亞馬遜Alexa用合成人聲回答道,“對(duì)不起,我不知道如何幫助你。”
“沒關(guān)系!”小女孩說。她走向另一款亞馬遜Echo設(shè)備,將它拿起來說道,“我看看其他Alexa知不知道。”
(從左至右)實(shí)驗(yàn)助手Yumiko Murai,六歲的Viella及研究作者之一Stefania Druga和Google Home一起聊樹懶。來源:Randi Williams
孩子們天生好奇,總想通過科技的視角理解身邊的世界。但是這項(xiàng)研究的結(jié)果表明:孩子們總將科技視作權(quán)威,但并不了解科技是如何運(yùn)作的。而現(xiàn)在,身處AI時(shí)代,孩子們不止是數(shù)碼原住民,更是人工智能時(shí)代的原住民。雖然這一點(diǎn)在搜索“樹懶吃什么(如果好奇,樹懶主要吃樹葉,有時(shí)也吃昆蟲)”時(shí)無關(guān)痛癢,但很多人擔(dān)心孩子們會(huì)將更常見的機(jī)器算法也視作權(quán)威,例如YouTube的智能推薦。
2018年,Zeynup Tufecki在紐約時(shí)報(bào)上發(fā)表了文章《矛盾激化者:Youtube》。她在文中敘述,自己會(huì)在YouTube上觀看政敵間的視頻,從唐納德·特朗普、希拉里·克林頓到伯尼·桑德斯,只是想要了解一下時(shí)事政治。然而,在觀看這些視頻之后,YouTube的推薦算法和“自動(dòng)播放”功能不斷向她推薦一些陰謀論視頻。不管她看的內(nèi)容是右傾還是左傾,該算法都不斷用大量視頻“轟炸”她,其中包括拒絕承認(rèn)大屠殺、指控美國(guó)政府和“9·11”事件有關(guān)等。
她的這項(xiàng)發(fā)現(xiàn),加上YouTube如今是最受青少年歡迎的社交媒體平臺(tái),再加上約70%的成年人用YouTube學(xué)習(xí)新事物或者了解世界新聞,這些事實(shí)都讓人擔(dān)憂。科技,尤其是人工智能,在孩子心中所處的地位是否太過權(quán)威?
所以……能不能讓孩子在AI時(shí)代做一位認(rèn)真謹(jǐn)慎的消費(fèi)者呢?能不能讓他們不僅做一名謹(jǐn)慎的AI系統(tǒng)消費(fèi)者,還能成為一名有責(zé)任心的技術(shù)開發(fā)者?
對(duì)孩子進(jìn)行“AI+倫理”教育
AI和倫理這兩個(gè)問題是MIT媒體實(shí)驗(yàn)室的研究核心之一,其致力于重新詮釋人工智能、設(shè)計(jì)和倫理等方面的理論發(fā)現(xiàn)來實(shí)施教學(xué)實(shí)踐。
其中的“AI+倫理”課程初次實(shí)驗(yàn)是2018年十月在大衛(wèi)威廉中學(xué)(David E. Williams Middle School)進(jìn)行的一共三期的工作坊。當(dāng)時(shí)有實(shí)驗(yàn)室的指導(dǎo)老師和超過200名中學(xué)生一同合作。期間,學(xué)生學(xué)習(xí)了深度學(xué)習(xí)、算法偏向等基礎(chǔ)知識(shí),還有如何用倫理知識(shí)來設(shè)計(jì)AI系統(tǒng)。
課程的目的是讓學(xué)生知道AI系統(tǒng)是可以改變的,并教授他們改變系統(tǒng)的工具。實(shí)驗(yàn)者的想法是,如果能將系統(tǒng)看作是一種靈活多變的東西,知道它可以是多種多樣的,那么系統(tǒng)便會(huì)不那么權(quán)威,算法便可以只是一種選擇。
想讓學(xué)生認(rèn)識(shí)到算法可變,首先要讓他們能夠“看見”算法。他們需要對(duì)日常生活中接觸到的算法產(chǎn)生認(rèn)識(shí):如谷歌搜索,或SnapChat上的面部識(shí)別系統(tǒng)。一旦學(xué)生們能夠識(shí)別出周邊世界用到的算法,便可以學(xué)習(xí)這些系統(tǒng)是如何工作的。比如,神經(jīng)網(wǎng)絡(luò)如何在圖片數(shù)據(jù)庫(kù)中進(jìn)行學(xué)習(xí)?
在中學(xué),學(xué)生剛剛掌握一些基礎(chǔ)科技設(shè)備時(shí)便讓他們學(xué)習(xí)倫理知識(shí)至關(guān)重要。到了大學(xué),倫理課或者“社會(huì)影響”課往往不受重視,被放到學(xué)期的最后一節(jié),或者干脆一同被歸為一門獨(dú)立課程。這樣會(huì)帶來兩個(gè)問題。第一,這樣會(huì)不經(jīng)意教會(huì)學(xué)生倫理是后見之明,和建構(gòu)算法或設(shè)計(jì)流程相比并不是根本問題。第二,老師往往會(huì)上不完課!要知道,在小學(xué)、初中和高中所上的許多美國(guó)歷史課中,很少有老師會(huì)上到1964年的民權(quán)法案那個(gè)部分。作為成年人,很多人大概知道冷戰(zhàn)是什么,但卻沒辦法像法國(guó)大革命那樣如數(shù)家珍。這決不是我們想讓倫理課在科技課程中所受的待遇。倫理內(nèi)容必須和科技內(nèi)容結(jié)合。
例如,在實(shí)驗(yàn)課程中,學(xué)生會(huì)訓(xùn)練他們自己的貓狗分類算法。但是他們往往會(huì)遇到問題:用作訓(xùn)練的數(shù)據(jù)庫(kù)是有偏向的。比如其中貓的形象過多,而狗的形象過少,導(dǎo)致算法在分類時(shí)貓的準(zhǔn)確度很高,而狗總會(huì)被錯(cuò)分為貓。了解到訓(xùn)練數(shù)據(jù)會(huì)影響分類器后,學(xué)生有機(jī)會(huì)重新整合訓(xùn)練設(shè)置來讓分類器對(duì)狗和貓的分類達(dá)到相同的準(zhǔn)確度。
4名中學(xué)生正學(xué)習(xí)如何監(jiān)督機(jī)器學(xué)習(xí)和分類。來源:Justin Aglio
最后,課程以一節(jié)倫理設(shè)計(jì)課作為總結(jié)。學(xué)生的任務(wù)是通過識(shí)別系統(tǒng)中的利益相關(guān)者和他們所持的價(jià)值觀來重新想象YouTube的推薦算法。他們得出的結(jié)果非常驚人。
學(xué)生討論YouTube平臺(tái)的利益相關(guān)者和他們的價(jià)值觀。來源:Justin Aglio
學(xué)習(xí),不止于夏天
這項(xiàng)實(shí)驗(yàn)得出了兩個(gè)非常明確的結(jié)論。第一,學(xué)生對(duì)這些材料的掌握比實(shí)驗(yàn)人員想象的更好。第二,他們需要更多時(shí)間來接觸這些材料。三節(jié)課程,每節(jié)四十五分鐘,對(duì)他們來說根本不夠。他們沒時(shí)間創(chuàng)造令自己自豪的項(xiàng)目,也沒時(shí)間探索所接觸到的科技。
這個(gè)夏天,“個(gè)人機(jī)器人小組”將會(huì)在麻省理工學(xué)院媒體實(shí)驗(yàn)室舉辦為期一周的夏日工作坊。它將會(huì)包括實(shí)驗(yàn)項(xiàng)目中的許多方面,比如讓孩子學(xué)習(xí)如何訓(xùn)練他們自己的圖片分類器,了解倫理設(shè)計(jì)的流程等。一周的時(shí)間能讓孩子對(duì)各方面進(jìn)行充分的探索,讓他們擁有AI和倫理領(lǐng)域的專業(yè)體驗(yàn)。學(xué)生將學(xué)習(xí)AI系統(tǒng)的其他方面,比如K最鄰近算法。他們還可以通過小說創(chuàng)作工作坊或角色扮演練習(xí)來擴(kuò)充自己的倫理知識(shí)。之后,根據(jù)觀察和反饋不斷完善教學(xué)計(jì)劃,并在今年晚些時(shí)候?qū)⑵渥優(yōu)殚_放資源。
工作坊將于6月24-28日在馬薩諸塞州劍橋市的媒體實(shí)驗(yàn)室進(jìn)行。