張雅琳 @ 第11屆第3會期教育及文化、交通委員會第1次聯席會議

時間: 0
Start Time End Time Text
公報發言紀錄

發言片段

lineno: 673

發言片段: 0
張委員雅琳:(11時57分)請國科會跟數發部。
發言片段: 1
主席:有請國科會副主委、數發部次長備質詢,謝謝。
發言片段: 2
張委員雅琳:好,首先,想要先請教2位,我們先來討論一個令人心碎的新聞,其實這個就牽涉到後面我想要來討論的,就是到底我們有沒有把這樣一個案例跟現象放在我們的法規裡面?
2024年10月美國一個母親指控美國Correct-AI的聊天機器人讓他14歲的孩子走上自殺這條路,因為Correct-AI上面的虛擬角色和他的孩子建立一個非常深厚的情感,所以他在這個過程中經歷過憂慮、沮喪和低潮,最後這個Correct-AI竟然推薦他走上自殺。他有跟它表達自殺的意念,它竟然還鼓勵他,所以他的孩子就這樣自殺了,其實這個案子也引發了美國非常大的震撼,我不曉得2位……我先請教一下國科會,當時你們在制定相關的法令時,有考量到這樣的狀況嗎?
發言片段: 3
陳副主任委員炳宇:跟委員報告,這部分在基本法裡面,我們是以框架的方式來制定,委員所挑選的這個案例,它比較像是一個產品要經過評測後才能夠上市。其實世界各國、我們都有在關注AI的產品是不是會造成一些副作用,所以我們也有支援AI評測的計畫去做檢測。
發言片段: 4
張委員雅琳:好,評測的問題我待會再問,但是我還是要講為什麼我們想要爭取把它入法的概念。如果今天我們不對AI設立一個明確的管控和安全防護的話,青少年可能就會在無人察覺之下跟AI建立非常深厚的情感,最後就被AI帶入危險的邊緣。過去我們可能是人跟人之間的互動,至少在網路上、數位的世界,我們都還是跟真人互動,但是現在的孩子基本上是跟AI世界的機器人建立真實的連結了,這個倚賴非常非常地深,所以我們必須要設定相關的保護機制,不然我們會不知道未成年人到底跟AI聊了什麼?AI給了他什麼樣的建議?最後AI的建議會不會讓他走上絕路?
我覺得這部分牽涉到倫理的原則,可以參考2019年可信賴的人工智慧倫理準則,它有講到3個重點,就是合法性、倫理性跟穩健性。它在倫理性裡面就有講到,AI應秉持著行善、不作惡,公開、公平的基本倫理原則;穩健性就有講到人工智慧系統必須從技術和社會兩個層面來確保穩健性,即使是出於良善的意圖,AI系統都有可能會導致非預期的危害。例如最近我們也有看到,就是2023年澳洲也有發現生成式的AI工具可能被性犯罪者用來自動化誘騙兒童的行為,因為他們能夠模仿人類的對話,像是生成式AI都能夠撰寫極具說服力和模仿人類的文字,讓不法分子可以透過自動化的方式跟兒童互動,減少他們花費在一對一誘拐兒童的時間,所以它就可以生成吸引兒童的故事或語氣,甚至是透過深偽來創造年輕的虛擬角色,加強誘拐的可信度。
剛剛有提到當時你們並沒有把它放進去,可是我認為大部分的人在看AI基本法或是發展科技的時候,可能都只會看這個法,所以我們還是必須要確保我們的法有保障到保護兒童的相關原則性,因為兒童是脆弱族群,如果我們沒有把它放進去的話,大家可能就會忽略掉這個部分,因為這個部分接下來是數發部要接掌嘛!對不對?我們是不是可以在相關的制定上更明確化這個原則呢?
發言片段: 5
葉次長寧:跟委員報告,委員講的是非常重要的一件事情,的確行政院的版本也會提到政府應該避免人工智慧系統造成國民的生命、身體、財產和自由等等的傷害,我們數發部會採取的方式就是會提供AI評測的工具和方法。AI評測的項目就包括它的準確性,以及它是否會造成偏差、是否當責等等,就是剛才委員所提到的。我們希望能夠透過檢測AI的過程,找出比較適合大家使用的,推薦給大家來使用。
發言片段: 6
張委員雅琳:對,但是……
發言片段: 7
葉次長寧:另外一方面,就是兒少的部分,其實兒少性剝削防制條例在立法的過程中就有特別注意到這件事情,立法理由的第二點就有特別提到,如果是深偽所製造的兒少影像也是在規範的範圍內。
發言片段: 8
張委員雅琳:我知道,但是我的意思是說,大家在做科技發展的時候,可能不一定會看到其他的例如兒少權法也好或是兒少性剝削防制條例,所以我認為在這個法上面我們是不是可以特別去強調兒童的脆弱性,讓大家可以關注到?因為我覺得一般大家在考量人民的生命損害時,包含我們自己過去所制定的行人交通安全設施條例,我們都只有從人民的角色來看,可是一般的大人跟兒童的狀態還是非常不一樣,所以我希望這個部分是不是可以納入接下來的版本裡?之後我會提出來,希望到時候數發部可以接受,好嗎?
發言片段: 9
葉次長寧:好,謝謝委員指教。
發言片段: 10
張委員雅琳:再來,因為這個還是有風險等級的部分,就是說,我認為這也是這個法最最關鍵的部分,從歐盟的草案裡面,他們當時就一直在強調要把風險分成不可接受風險、高風險、有限風險跟最小風險。但是我看到113年數發部的條文內容草案,你們是寫:「……風險分級與管理……各目的事業主管機關得循前項風險分級框架,訂定其主管業務之風險分級規範」。我想要問一下,因為這個條文我不太確定,之前我問的時候你們是說會做分類,到底是分級還是分類?這個部分可不可以先做個說明?
發言片段: 11
葉次長寧:現在行政院研議之後所採取的版本,有分類的部分主要是框架的部分,就是先把風險標示出來,可能是對國家的、社會的,也可能是對人民的,或是對系統本身的風險。這個風險分類框架會有一個類似指引的東西,它是有程序的,能夠識別風險、評估風險和對應風險。各個部會在它的專業領域裡可以根據這樣的風險分類框架,針對風險的高低,因為同樣一個AI系統,它在衛福部跟農業部所造成的風險是完全不一樣的,而各個領域的主管機關可以根據它所對應的風險來採取比較高的措施,或是比較低度的管理措施,所以層級式的規範會結合現有的作用法訂在各部會的作用法裡面。
發言片段: 12
張委員雅琳:但是我想確認一點,就是說,我們應該是先進入分級吧!就是在哪些狀況之下,它應該是不能夠侵害的吧?例如它可能會傷害到人民的財產損失,這是屬於不可接受的風險或是高風險,我們應該要先訂定這樣的分級,然後再去分類才對啊。
發言片段: 13
葉次長寧:應該是說,AI的技術在不同領域應用後會產生不同的結果,舉例來講,我們的刑事訴訟法去年修的時候就有特別訂定,科技偵查不可以使用生物辨識技術進行偵查,只能使用定位,顯然科技偵查所要求的標準是比較高的。可是同樣地,生物辨識技術在農業領域可能風險就比較低。所以它必須要在各領域、具體的應用環境裡面,才能夠看得出它的風險高低。
發言片段: 14
張委員雅琳:所以這樣聽起來,你們的風險分級管理其實是風險分類嘛,對不對?
發言片段: 15
葉次長寧:對,然後各個部會會在它專門的領域裡面訂定層級式的管理規範。
發言片段: 16
張委員雅琳:好,我想再確認一點,再來是評測的部分,其實你剛才也有提到,你們之前也有提到,就是你們會有10項的測試來確保它會不會造成我們剛剛講到的兒童受害的狀況,我想問一下,我們現在到底是如何做這個測試?之前我們也曾索資,因為今天你一定要去攻擊這個系統,對不對?你要做很多的情境模擬,或是去看它會不會誘導兒童產出一些裸照或犯罪,會不會有這樣的對應?所以這個問題到底是什麼?這是我們之前有在索資。然後範圍還有資料量到底是多大?你們到底測了多少的問題?這些東西我們都有索資,可是你們的回答內容都還是很模糊,這個部分是不方便提供,還是……可以做個說明嗎?
發言片段: 17
葉次長寧:詳細的情形我請林組長來說明。
發言片段: 18
林組長青嶔:委員您好!其實目前我們主要在做的就是剛才委員講的那10個指標,目前在這些指標裡面,第一步我們是先建立題庫,其實目前我們已經有一些題庫,但是這些題庫必須要找一些專家委員來做評測,因為它牽涉到效度跟可信度的部分,有些題目我也不希望一直重複在測,所以目前我們已經把題庫建立好。當然,在題庫建立的過程中,我們會在release一部分,讓業界建立的模型可以預測到底是怎樣。當然,這些題庫不要公開,因為公開的話,大家就會知道這是什麼東西,所以目前我們的進度是這樣。當然,目前我們所做的事情就是積極對業界做推廣,就是請大家來試試看,看還有什麼問題,我們再做……
發言片段: 19
張委員雅琳:我有點不太懂欸!題目公開到底會有什麼樣的問題?因為我們就是要測試,不是嗎?
發言片段: 20
林組長青嶔:因為語言模型會learning,當我問它一個問題時,它大概就知道你要問什麼東西,它就會記憶,所以基本上我們會有一個題庫在裡面,但是會release某一部分……
發言片段: 21
張委員雅琳:可是提供給立法委員知道應該是沒有什麼問題吧?因為我必須要知道你們測試了哪些內容。
發言片段: 22
林組長青嶔:我可以給委員目前這些題庫的數量到底是怎麼樣。
發言片段: 23
張委員雅琳:除了數量,可是我還是希望可以知道你的範圍,到底你測試了哪些範圍?
發言片段: 24
林組長青嶔:好,可以。
發言片段: 25
張委員雅琳:我覺得這個還是要回到剛才我們一直在講的,因為我們還是必須要保護脆弱的兒少,好不好?
發言片段: 26
林組長青嶔:好,我們會針對這幾個指標的定義給委員知道一下,然後每個題庫,就是我們release出來的那些範例都讓你知道它到底是長什麼樣子。
發言片段: 27
張委員雅琳:那我想知道到底什麼時候問題會釋出?因為這還是要回到大家可以來檢視嘛!如果你說現在不方便,那到底是什麼時候呢?
發言片段: 28
林組長青嶔:應該這樣講,假設這個category有100題,可能我會有10題讓大家來看,大概裡面的題庫就會在,但是我們可以讓你知道那10題到底是長什麼樣子。
發言片段: 29
張委員雅琳:好,我好像還是沒有被說服,沒關係,我們約時間……
發言片段: 30
林組長青嶔:沒關係,我們再跟委員……
發言片段: 31
張委員雅琳:因為我時間已經到了,我們再約時間來討論這個。
發言片段: 32
林組長青嶔:好,是,沒問題。
發言片段: 33
張委員雅琳:但是我們儘快約時間,好嗎?
發言片段: 34
林組長青嶔:好,沒問題。
發言片段: 35
張委員雅琳:最後一個,我想再確認一下,因為人工智慧基本法現在在主管機關上面是沒有寫的,當時國科會回復給我是說基本法大多數沒有主管機關,但是我們也可以看到,其實青年基本法就有主管機關,所以我想問一下,既然已經確定是數發部了,對不對?我們是不是就應該在法規裡面、法案裡面去明確化?
發言片段: 36
葉次長寧:過去的11個基本法多數沒有定,特別是AI基本法,我們覺得不太適合的原因就是AI基本法的業務,青年基本法或許青年的業務很清楚,但是AI基本法很明顯地涉及到各個不同的業務,所以它不是單一部會的問題,譬如勞動一定涉及到勞動部,教育一定涉及到教育部,所以我們在條文裡面有講到,將來的法規解釋會由數位的主管機關(就是本部)跟各目的事業主管機關來進行法規調適。但是我們還是建議,特別是一個跨部會,整個政府要推動的法律……
發言片段: 37
張委員雅琳:我想青年基本法也是橫跨很多部會,像勞動部啊!因為青年的勞動力,其實也是一樣的狀態,所以這一點我好像也沒有被說服欸!好,這個部分的話……
發言片段: 38
葉次長寧:我們過去所定的,不管是文化基本法、教育基本法,或者是科技基本法、環境基本法,都是採取沒有主管機關的體例。
發言片段: 39
張委員雅琳:但是我認為沒有主管機關就很難去要求,也很難有一個當責的角色,所以到時候在我的版本上面,我還是會把它放上去。
最後,剛剛我有聽到其他委員在講為什麼行政院把它改成數發部這件事情,我這邊也要提醒我們的葛如鈞召委,其實憲法裡面就有明定了,憲法第五十三條已經有明定行政權歸屬於行政機關。我們每個人都念過憲法,今天我們已經當了立法委員,就不要法盲,我們還是要回到行政立法的權力分際原則,尊重行政院最後的決定,謝謝。
發言片段: 40
主席:謝謝張雅琳委員的質詢,官員請回座。
接下來有請郭昱晴委員質詢。

公報詮釋資料

page_end 338
meet_id 聯席會議-11-3-22,23-1
speakers ["葛如鈞","羅廷瑋","吳宗憲","張嘉郡","洪孟楷","柯志恩","李昆澤","林俊憲","陳素月","陳秀寳","林宜瑾","葉元之","蔡其昌","劉書彬","萬美玲","張雅琳","郭昱晴","何欣純","伍麗華Saidhai‧Tahovecahe","游顥","徐富癸","吳沛憶","謝龍介","楊瓊瓔","范雲","林沛祥","邱若華","廖先翔","許宇甄","邱志偉"]
page_start 263
meetingDate ["2025-05-14"]
gazette_id 1144802
agenda_lcidc_ids ["1144802_00005"]
meet_name 立法院第11屆第3會期教育及文化、交通委員會第1次聯席會議紀錄
content 一、審查委員葛如鈞等37人擬具「人工智慧基本法草案」案;二、審查委員邱若華等 17 人擬具 「人工智慧基本法草案」案;三、審查委員羅廷瑋等17人擬具「人工智慧基本法草案」案;四、 審查委員萬美玲等18人擬具「人工智慧基本法草案」案;五、審查委員許宇甄等20人擬具「人工 智慧基本法草案」案;六、審查委員張嘉郡等21人擬具「人工智慧基本法草案」案;七、審查委 員林倩綺等23人擬具「人工智慧基本法草案」案 (僅進行詢答)
agenda_id 1144802_00004