科技部攜手臺大AI中心 讓科技與人文並肩同行

近年來人工智慧(Artificial Intelligence, AI)技術不斷革新且應用範圍持續擴大,相應的倫理,社會,法律議題也陸續浮現,世界各國都在探討科技發展與人文社會兩者該如何並重。為了應對這波人工智慧的社會衝擊,科技部補助人工智慧技術暨全幅健康照護聯合研究中心(AINTU,簡稱臺大AI中心)今(16)日假國立臺灣大學梁國樹國際會議廳召開「科技與人文對話系列研討會-國際人工智慧科研發展之指引、規範與實踐」。期望藉由AI創新研究中心人社計畫團隊專業觀點與研究成果,以跨領域與多面向的看法,引領各界人士了解科技與人文間的複雜關聯性、未來社會可能遭遇的影響與挑戰,以及學者與企業可能因應的實踐做法。

跨領域協作,讓科技與人文同行

因應智慧時代的來臨,行政院於107年起推動「台灣AI行動計畫」以落實數位國家、智慧島嶼的國家發展策略,科技部並分別補助國立台灣大學、國立清華大學、國立交通大學以及國立成功大學等四所國內頂尖大學成立AI創新研究中心,研究主題包含了核心技術、智慧製造、智慧服務及生技醫療四大領域,以跨領域、跨單位、跨國際的合作方式,打造國際級研究中心,以促成更多國際交流與合作,使台灣的既有研究能量能更進一步提升其國際學術及研究影響力。臺大AI中心陳信希主任表示該中心即是由科技部補助設立之研究中心,涵蓋了核心技術和生技醫療兩大主題,更分別設有人工智慧技術(AIT)及全幅健康照護(MAHC)兩個子中心,以整合校內資源及學術網絡,加速臺灣在人工智慧技術與全幅健康照護研究之發展。

此外,由於人工智慧發展與導入,勢必會引發勞動市場、產業結構、社會平等、專業倫理等不同層面的多向變動,進而衍生出許多爭議問題,須透過人文社會科學協助進一步探討。因此,科技部於108年針對未來人工智慧於社會實際應用時可能面臨的重要議題,徵求人文社會領域之研究計畫,期望能預先掌握AI對社會可能的影響,及早研擬因應做法。陳信希主任亦表示,該中心已辦理過多場「科技與人文對話系列研討會」,希望透過人社領域與AI技術的專家對話,以跨中心,跨領域、跨計畫的方式,進行溝通討論與深度研析,提出具體可行之方案建議,供科技部與社會各界參考。

人工智慧的倫理、社會、法律議題

科技部除108年於AI創新研究中心下新增補助人文社會研究計畫外,更於去(108)年9月發佈「人工智慧科研發展指引」,期望降低AI科技研發的潛在疑慮與風險,消弭AI偏見、歧視與排除等情形。陳信希主任表示目前4個AI創新研究中心轄下皆有人社計畫針對不同的社會、法律、倫理議題進行研究,並以跨中心與跨計畫的方式提供轄下AI研究計畫協助;此外,臺大AI中心每年持續舉辦科技與人文對話系列研討會,藉由人社團隊與技術團隊不同角度的議題探討與成果分享,不僅加速臺灣AI技術發展也同時增進在應用落地時的人文社會面向的相互理解。

本次活動由臺大AI中心與臺師大人社團隊共同規畫辦理,邀請8位專家,說明AI的技術應用對社會的影響與挑戰,國際最新的相關規範精神,及科學研究及產品落地不同階段的實踐議題與產業因應範例,是難得結合學研界與產業界的全方位討論盛會。與會專家中包含:法律專業(臺大黃銘傑教授,北醫大李崇僖教授,資策會彭睿仁研究員),人文專業研究(甘偵蓉教授),兼顧人文與技術(丁川康教授,黃從仁教授),AI技術專業(林守德教授),產業因應(Google 台灣董事總經理 馬大康博士)。

其中有3位人社計畫主持人及1位技術計畫主持人由不同領域提供專業的見解,搭配以各自研究成果為範例闡述;如臺大AI中心李崇僖副教授針對歐盟「人工智慧白皮書」與「資料策略報告」背後策略思維進行探討與分析,認為台灣應展望歐盟未來對科技倫理治理與風險治理的發展策略,以思考台灣的政策衝擊與因應;臺大AI中心林守德教授(也是Appier的首席機器學習科學家)則探討AI「可追溯性」與「可問責性」原則的重要性、在執行上須關注哪些面向,或是在實際應用時存在的挑戰及屆時能運用的克服方法為何,以幫助國內外AI產業發展能夠更加成熟與健全;成大AI中心丁川康教授則藉由群眾外包來蒐集不同公眾情境中的倫理行為,接著透過AI技術如基因編程與學習型分類系統來建立日常道德的模型,其模型的透明度能允許人們去分析那些被選擇的特徵、調查決策偏好,以及測試潛在的偏差;成大AI中心黃從仁教授分享人工智慧系統中常見的機器學習/深度學習方法何時會學習去做偏誤決策,以及如何應用近年來所發展出的「可解釋性」(Explainable AI)方法去了解各種自動化決策系統的決策標準與傾向。

科技與人文的對話,未來挑戰與實踐

各種創新科技如AI、大數據、5G等發展已成為國際趨勢,對社會環境皆造成改變、影響並帶來潛在風險,如偏見與歧視、個資與隱私保護疑慮、安全性與風險之考量,甚至是AI系統決策的透明性、可追溯性或可解釋性等。陳信希主任表示在當前各國在努力的數位國家與智慧城市,即是仰賴AI技術與大數據進行相關資料之分析與運用,無論是個資使用與匿名處理等隱私安全問題,或是因系統決策不透明與不可解釋造成的不安等,都是政府治理與科研發展上相當重要的一環,未來該如何確保AI的透明性、可追溯性與可解釋性等將會是首要挑戰。

此外,新興科技的應用對於現行法制規範亦造成相當大的衝擊,現行法規仍有許多模糊灰色地帶須確認或突破,以智慧醫療為例,許多創新技術仰賴大數據收集與資料庫之建立,對於病患數據收集、保存與傳輸仍有許多限制,且服務可能涉及各種裝置、儀器、軟體或用具的使用,此些是否屬醫療器材、是否需要執照等各種衍生問題亦仍須釐清。因此,在身處智慧時代的當下,因應新科技應用而產生的各種倫理、道德、法律等議題,仍須人文社會科學的專家一同探討深究。

陳信希主任最後表示,藉由本次人文社會領域計畫團隊的成果展現,以及學界與業界專家的分享,期望能提高臺灣AI科研人員對相關技術之應用可能造成的社會影響之認知與了解,同時讓人社領域專家了解實際科研人員在落實此指引之過程中可能面臨的困難與負擔,以完善AI研發環境,並減低對人文社會的衝擊。