科技部提AI科研發展指引 盼發揮AI善的力量

科技部長陳良基今日發布「人工智慧科研發展指引」,包括共榮共利、公平性與非歧視性、自主權與控制權、安全性、個人隱私與數據治理、透明性與可追溯性、可解釋性、問責與溝通等8項準則。

陳良基指出,人類歷史上有石器時代、鐵器時代,如今隨著科技進步,已經邁入AI時代,AI作為人類使用的工具之一,就像是刀子、火種,工具使用時有善有惡,這次提出「人工智慧科研發展指引」,就是為了讓善的力量被加大,惡的部分可以被控制。

「人工智慧科研發展指引」從以人為本、永續發展、多元包容等3項基本價值,引申出8大原則,是全球第一份向科研機構提出的AI發展指引。

8大原則包括:第一、共榮共利。AI科研人員應追求人類、社會、環境間的利益平衡與共同福祉,並致力於多元文化、社會包容、環境永續等,達成保障人類身心健康、創建全體人民利益、總體環境躍升之AI社會。

第二、公平性與非歧視性。AI科研人員應致力於AI系統、軟體、演算法等技術及進行決策時,落實以人為本,平等尊重所有人之基本人權與人性尊嚴,避免產生偏差與歧視等風險,並建立外部回饋機制。

第三、自主權與控制權。AI應用係以輔助人類決策,AI科研人員對於AI系統、軟體、演算法等技術開發,應致力讓人類能擁有完整且有效的自主權與控制權。

第四、安全性。AI科研人員應致力於AI系統、軟體、演算法等技術運作環境之安全性,包括但不限於穩健性、網路與資訊安全、風險控管與監測等,並追求AI系統合理且善意的使用,構築安全可靠之AI環境。

第五、個人隱私與數據治理。個人資料隱私侵害的預防,必須建立有效的數據治理,在AI研發與應用上,AI科研人員應致力注意個人資料蒐集、處理及利用符合相關法令規範,以保障人性尊嚴與基本人權,並針對AI系統內部之個人資料架構有適當的管理措施,以維護資料當事人權益。

第六、透明性與可追溯性。AI所生成之決策對於利害關係人有重大影響,為保障決策過程之公正性,在AI系統、軟體及演算法等技術發展與應用上,包括但不限於對於模組、機制、組成、參數及計算等進行最低限度的資訊提供與揭露,以確保一般人得以知悉人工智慧系統生成決策之要素。

AI技術之發展與應用須遵循可追溯性要求,對於決策過程中包括但不限於資料收集、資料標籤以及所使用的演算法進行適當記錄,並建立相關紀錄保存制度,以利受AI技術決策影響之利害關係人得為事後救濟及釐清。

第七、可解釋性。AI發展與應用階段,應致力權衡決策生成之準確性與可解釋性,兼顧使用者及受影響者權益,故AI技術所生成之決策,應盡力以文字、視覺、範例等關係人可理解之方式與內容,對於AI系統、軟體、演算法等技術之使用者與受影響者,進行事後的說明、展現與解釋。

第八、問責與溝通。基於社會公益與關係人利益之維護,AI的發展與應用應致力於建立AI系統、軟體、演算法等技術之問責與溝通機制,包括但不限於決策程序與結果的說明、使用者與受影響者之回饋管道等。