通常,說起程式設計,我們總會把它和程式、網際網路、AI、機器人等科技類的詞彙相聯絡。但是,程式設計所關係的,不僅僅是科技本身,還會深刻地影響人的精神世界。從最基本的認識問題看,程式設計教育到底能給孩子帶來什麼?而且,程式設計教育怎麼能夠幫助孩子更好地適應未來世界?帶著問題,我們一探究竟!
如今,我們已經處在了AI時代,孩子們不僅是網際網路的原住民,更是人工智慧時代的原住民。
孩子成長在科技愈加發達的今天,他們對於科技的感受將更加強烈。科技在他們的眼裡,又是一種什麼樣的存在呢?
一、在孩子眼裡,科技是怎樣的存在?“你認為這個裝置比你聰明、和你一樣聰明,還是沒有你聰明?”
實驗得出的結果令人吃驚,在6至10歲的孩子中,沒有一個孩子認為自己比智慧裝置更聰明;而且,100%的孩子都認為智慧裝置Alexa比自己更聰明。
來自2017年研究“谷歌你好,我可以吃掉你嗎?”
同時,孩子們在和智慧裝置溝通的過程中,更傾向於向裝置發問。而且,發問的內容多為自己感興趣的、想了解的生活和知識。比如實驗中,有個六歲的女孩Viella和Google Home一起聊樹懶。
該項研究發現,孩子們容易將科技視作權威,而且總想透過科技的視角來理解身邊世界,但是大多數孩子並不瞭解科技是如何運作的。
舉個例子,孩子在遇到某個問題時,他們更傾向從網際網路搜尋答案或從人工智慧上直接詢問,而不是向他人提問或者去翻厚厚的紙質書籍。
二、科技權威的反作用雖然孩子們用智慧裝置瞭解樹懶或者生活知識並沒有什麼問題,但是麻省理工的研究者和關注兒童教育的群體也開始擔心:
由於孩子對人工智慧內在運作缺乏認識,加之對科技權威的信任,現在的各種機器演算法(比如在各大新媒體上廣泛運用的智慧推薦)很容易誤導孩子們形成對外界的錯誤看法和狹隘的價值觀。
舉個例子,2018年紐約時報上發表了批判YouTube的文章。YouTube是國外最受青少年歡迎的社交媒體平臺和影片網站。但是該作者在文中敘述,她在YouTube看了唐納德·特朗普、希拉里·克林頓這些政治人物,想了解時事政治。但是YouTube的推薦演算法和“自動播放”功能不斷地向她推薦一些陰謀論影片,其中包括拒絕承認大屠殺、指控美國政府和“9·11”事件有關等。
這些事實都讓人擔憂。
那麼,我們是不是能幫助孩子在AI時代做一名認真謹慎的使用者呢?以及,能不能讓他們不僅做一名謹慎的AI系統使用者,還能成為一名具有責任心的AI時代的創造者呢?看看MIT媒體實驗室是怎麼做的吧!
三、MIT媒體實驗室:程式設計教育改變認識MIT媒體實驗室在2018年開設了“AI+倫理”的課程初次實驗,該實驗共有超過200名中學生參與。在三期的課程中,學生們學習了深度學習、演算法偏向等基礎知識,還有如何用倫理知識來設計AI系統。
首先,實驗者希望學生能夠認識到AI系統是可以改變的。
那麼,就需要讓學生明白讓系統運作的演算法是可變的,首先要讓他們能夠“看見演算法”。
他們需要對日常生活中接觸到的演算法有一定的認識:比如谷歌所搜,或面部識別系統。一旦學生們能夠識別周邊世界用到的演算法,便可以學習這些系統是如何工作的。比如神經網路在圖片庫中怎樣進行學習?
例如,在實驗課程中,學生透過學習後,就會訓練他們自己的貓狗分類演算法。但是他們往往會遇到問題:用作訓練的資料庫是有偏向的。
比如其中貓的形象過多,而狗的形象過少,導致演算法在分類時貓的準確度很高,而狗總會被錯分為貓。瞭解到訓練資料會影響分類器後,學生有機會重新整合訓練設定來讓分類器對狗和貓的分類達到相同的準確度。
最後,該課程以一節倫理設計課作為總結。學生的任務是透過識別系統中的利益相關者和他們所持的價值觀來重新想象YouTube的推薦演算法。學生對自己總結出的結果都感到非常驚訝,對AI和演算法也有了新的認識。
該實驗的實驗者主要是目的是透過該課程讓學生了解AI系統是可以改變的,並且教他們親身體驗改變AI系統。
只有這樣,學生才能夠將系統看作是一種靈活可變的東西,系統是在人的主導下所產生的選擇性產物。AI系統和科技在學生的眼中才不會如此權威,並讓學生明白這些都需要被謹慎看待。
結語越是進步和充滿便利的時代,越需要人的思考和認識。
AI時代,程式設計對社會的影響將會越來越大。只有及時認識程式設計是作為改變世界的工具本質以及它所帶來的智慧運作方式,才能夠讓孩子對周遭的世界有一個正確的認識。
程式設計教育幫助孩子更好地適應未來,從價值觀的層面影響孩子,啟迪並培養具有社會責任感的未來創造者!