抖音的假資訊、IG的擦邊球,誰在數位叢林中來保護兒少?

  • 2025-06-16
  • 作者 / 法律白話文運動 劉洛亦

許多的青少年現在都人手一支手機,但你或許還沒意識到,他們每天接觸的「網路現場」,跟大人想像中很不一樣。

 

抖音的假資訊、IG的擦邊球

 

14 歲的小萱最愛用抖音,有一天,她被一支瘦身影片吸引了,影片主角是一位和她年紀相仿的女生,聲稱自己一個月喝「酵素水」瘦下 5 公斤,留言裡擠滿了詢問購買方式的人。

 

小萱被這個影片完全打中,因為小萱也想要變成平常看短影片那些苗條的女生,因此決定偷拿爸媽的信用卡來下單......

 

同一時間,國中一年級的阿哲在 Instagram 上閒晃,IG的探索頁裡,經常出現不少「網紅」女生穿著清涼,姿勢甚至有些挑逗,有的甚至附上「想更進一步認識我?點這裡!」的連結。

 

阿哲有點好奇,因此就點進去了,才發現原來是成人直播平台......

 

這樣的場景,每天都在台灣的青少年生活裡發生。當爸媽忙著工作,老師忙著教學,孩子們在網路世界裡其實已經走得很遠、很深。他們刷著短影音、追蹤網紅,但也同時被「假資訊」和「準色情」內容包圍,而這還只是冰山一角。

 

何謂「不當資訊」?兒少眼中的數位風險

 

網路那麼多內容,什麼叫「不當」?

 

在台灣,常聽到「假訊息」、「詐騙」、「不實新聞」這些詞,也開始許多人用上「不當資訊」這個概念來統稱:只要內容不實、帶有誤導,或者本身就對兒童及少年身心健康有害,就屬於不當資訊的範疇。

 

具體來說,包括假醫療、假產品、暴力、色情、教唆犯罪、網路霸凌、個資外洩、甚至投資詐騙,都是不當資訊的代表。

 

而這樣資訊,對於兒少會不會有更大的傷害?

 

「兒少」通常是指「兒童及少年」,根據兒童及少年福利與權益保障法,指未滿18歲的人,其中未滿12歲者稱為兒童,12歲以上未滿18歲者稱為少年。在這樣的年紀裡,我們的研究和法律都認定一件事,就是這群年紀的人並非這個社會上成熟的人,因此我們會需要有比較多的規範來保護。

 

但問題來了,如果當許多的兒少都人手一隻手機時,他們會不會因為自己自由使用的關係,和大人一樣看到「不當資訊」,但無法判斷那是怎麼樣的不當?而我們要問,台灣現行法規對兒少看到的影像及內容有管制措施嗎?

 

台灣現有的法律和管制:我們做了哪些努力?

 

也許你會想:「既然那麼危險,政府就不能管管嗎?」事實上,台灣在兒少網路安全上不是毫無作為。

 

首先,最核心的法律基礎是《兒童及少年福利與權益保障法》,簡稱「兒少法」。第46條明定,所有網路平台、App業者都應該設立自律機制,阻絕兒少接觸色情、暴力等不當內容。

 

這條法規也促成了台灣專責機構「iWIN網路內容防護機構」的成立。iWIN主要工作是受理民眾檢舉、協調平台下架違法或不當內容(iWIN本身不具公權力,其角色主要是轉知業者改善或建議防護措施,並在必要時轉知權責機關依法處理。下架或移除內容的決定最終由平台業者或主管機關執行,而非iWIN直接要求。)、推動內容分級與過濾工具。而該條基本上可以分成兩層壓力,針對網路業者進行管制。

 

第一層壓力:你自己訂好規則(自律)。

該條法律希望平台自己有警覺性,主動做以下幾件事:建立「自律規範」。採取「明確可行的防護措施」。但問題來了,這僅僅是「先給你自己做的機會」。但如果平台不做,就會有第二層的壓力來了。

 

第二層壓力:你不做,政府就會介入(他律)。

如果平台,沒訂自律規則、也沒跟隨公會的自律規範,或是有害內容被舉報後,沒採取適當措施,那麼主管機關可以:通知網路業者處理,或是要求業者限制兒少瀏覽,甚至在一定情況可以要求你下架、移除內容。

 

除此之外,刑法、社會秩序維護法與其他相關法規也同步規範了散布假訊息、詐騙、網路霸凌、個資外洩等犯罪。然而,這些法規和機制其實都只是基礎防線。在現實中,數位內容的爆炸、平台自律與執行的侷限,讓我們不得不正視許多法律上的「力不從心」。

 

現行法制下的盲點與困難:我們還缺什麼?

 

很多人可能以為,既然有iWIN、有刑法、有教育部在努力,兒少應該很安全才對。實際上,現行體制下仍有許多難以突破的結構性困境。

 

首先,台灣至今沒有一部「直接規範社群平台」的專法,而是散落在不同的法律裡面針對不同的領域進行管制,造成構成要件、法律效果、主管機關積極程度不同的狀況,混亂的管制方法造成許多業者頭痛。

 

像歐盟的《數位服務法》(DSA)或美國個別州的兒童網路保護法,已經強制要求平台「主動監控」、「移除有害內容」,並公開違規記錄。台灣則多依靠iWIN協調與各大平台自律。這造成了幾個問題:

 

第一:平台常以「我們只是載體」、「境外主機不適用台灣法」推諉,對違規內容刪除、追查常常緩不濟急。

第二:iWIN雖努力,但在經費人力有限情況下,面對短影音、社群動輒數十萬則貼文、影片,光審查就耗時數日,往往等到下架內容時,兒少早已受害。

 

更現實的挑戰,來自「國際流通」的阻力。不少色情、詐騙內容直接來自海外網站、匿名社群或「深網」。即使台灣要求下架,也常常求助無門。甚至,許多平台的「準色情」內容,或介於擦邊球的IG帳號,因為不直接違法,處理起來更加棘手。

 

下一步,我們可以怎麼做?

 

眼前的問題,光靠「自律」或家長「多關心」已經遠遠不夠。要讓兒少能在數位時代健康成長,我們必須要「提高」兒少看見不當訊息的成本,而這個成本應該要課予平台更高的強制責任,也就是我們要有一個針對社群平台規範的法律。

 

許多人對此有許多的疑慮,認為該規範可能會對於人民的言論自由產生限制,但法律本身對於權利限制其實並不是問題,而是若存在一個不合理的限制,那才是問題。我們在電視節目上,有沒有對於兒少有法規範上的保護,因此做出一些限制?答案是有的。

 

例如《電視節目分級處理辦法》,就將節目分成普遍級、保護級、輔導級、限制級。以及在電視節目若詳述犯罪、自殺過程,或含強烈暴力、血腥、性暗示等十八歲以上才能接受內容,應列為「限」級並鎖碼播出。

 

所以問題就來了,兒少打開電視,會有法律保障他們不要看到不當訊息,因此對於電視臺做出規範,但為什麼打開手機就沒有法律對於社群平台做出規範?

 

更舉個案例,大家希望的社會,是假設在社群平台上出現兒少性剝削的影片,我們希望是社群平台自己要主動處理,如果不處理就會遭到處罰,否則應由政府追究上傳者責任?又或是要法律明確規範,要求社群平台業者提出透明度報告,讓我們知道演算法是如何讓兒少看到短影音的內容,還是期待業者有要有自律?

 

幾年前 NCC 曾經推出《數位中介服務法》草案,其實就是參考歐盟所制定出的《數位服務法》來對於社群平台進行規範。例如規範各類社群平台、短影音、交友軟體必須負起「主動」審查、分級、即時下架不當內容的義務;違反時設有明確罰則與透明違規紀錄;平台不能再以「境外主機」、「無法即時監控」做藉口。

 

要再次強調的是,《數位中介法》本身不是規範人民的,主要是規範「社群平台」,希望藉由法律的壓力,讓業者自己主動負起責任,讓不當訊息出現在平台時,業者對於不當訊息本身有處理的責任,而非都是政府的責任。

 

唯有這樣做,才能在兒少人手一機的狀態下,提高他們看到不當訊息的成本。可惜這本是為了解決「假訊息」與「色情內容」而提出的法律,最後卻被輿論抹黑為「打壓言論自由」,在反對的聲浪中被迫擱置,聽起來十分諷刺,而我們也錯失一個好好討論如何保護兒少的機會。

 

現行法律僅將懲罰的焦點鎖定在行為人,卻放任平台作為傳播與放大的載體毫無作為,等於在暴力的現場卸下警鈴,事後才來撿拾破碎的玻璃傷痕。我們不能再假裝這些只是「個人問題」,當平台缺席於責任的討論,我們就永遠無法真正替兒少築起第一道防線。

 

是時候讓制度與科技一起承擔應有的分際了。