close

兒童色情照太氾濫 人工智慧來把關

兒童情色的相關犯罪防治,一直都是社會上一項重要的議題,尤其在歐美國家,政府與民間組織皆十分重視,並投入相當大的資源在預防犯罪上,法規與刑責也更為嚴峻。

然而,縱使有嚴重的刑責,相關新聞依然層出不窮,尤其近年來智慧型手機、網際網路發展迅速,亦衍伸出許多拍攝、散播兒童情色照片的犯罪行為。

例如,在今年的 7 月 29 日,有一名居住在紐澤西州的男子,被警方查獲他的電腦內存有 110 個未成年性愛、裸露相關的影片和圖像。而其住處對面,正是當地的公立學校,令人不寒而慄。

在去年 2 月,也有一名美國空軍上校,遭檢警查獲他利用手機瀏覽未成年色情網站、保存圖片,他也坦承,自己使用 iPhone 手機下載未成年兒童的裸露照片高達 441 張,最後被判處 5 年有期徒刑與 15 年強制管束。

由於此類事件層出不窮,也讓蘋果決定調整目前的做法,希望能藉由其影響力,擴大對兒童的保護。

今年 8 月,蘋果在他們的官網上宣布有關保護兒童的新措施、功能,主要可歸納為三大類,分別是:Message 訊息內容偵測、iCloud 檔案掃瞄檢查、拓展 Siri 和搜尋功能的提醒和干預。

一偵測到情色照,AI 立馬傳模糊照給父母

未來,蘋果手機內的 Messages app 將會裝上新的工具「Helping with Communication Safety」,當 AI 偵測到使用者收到、發送色情等敏感內容的照片時,警告兒童和他們的監護人。而這些敏感內容的照片與圖像,也將會自動進行模糊處理。

如此一來,若未成年使用者遭遇到惡意騷擾,就能有相關的保護措施。除此之外,蘋果也會提供資源與建議,告訴孩子遇到這樣的事情不是你的錯,不想查看或發送也沒關係,並鼓勵他們進一步尋求協助。

但若未成年使用者還是想要查看或是發送敏感內容,此時系統就會發送提醒給家長。

蘋果也特別表示,這項新功能是透過手機設備上的 AI 去分析、辨別圖片內容,並強調蘋果公司不會、也無法去查看這些內容。

 

0824-1.jpg

圖片來源:蘋果官網。

 

 

兒童色情照上雲端?人工智慧來守門

雲端硬碟是現今常見的儲存資料方式,將個人照片備份在雲端,也能夠避免因為手機或電腦的損壞或遺失,導致相片和回憶一起不見。

然而,亦有有心人士藉由將違法的兒童色情內容存放在雲端硬碟中,並加以散播傳閱。

為了解決這個問題,蘋果將在 iOS 和 iPadOS 中新增一個新的系統,命名為「neuralMatch」。

這個系統將會允許蘋果檢測使用者儲存在 iCloud 當中的照片,並且與美國失蹤兒童及童工保護中心(NCMEC)的資料庫進行比對,確認其中是否有涉及兒童性虐待的內容(Child Sexual Abuse Material,CSAM)。

為避免使用者有隱私上的疑慮,蘋果說明將不會直接在雲端上掃描,而是將資料庫的圖片經過演算法轉換為雜湊值(Hash Value),這些真人無法辨識的資料數值會儲存在使用者的設備上。

每當使用者上傳相片至雲端硬碟,便會啟動 AI 來評估配對,這段過程將會以私有集交集加密技術(Private Set Intersection)進行加密,而比對結果與加密憑證會一起儲存在 iCloud 中。

最後要如何決定使用者是否有違規,則是由一項名為「閾值秘密共享」的技術來處理。

若是使用者的檔案中,有超過一定數量的圖像被 AI 判斷為符合 CSAM 內容,蘋果系統就會把所有可疑的照片解密後,交由相關人員進行人工審核。

一旦審查屬實,蘋果將會停用該使用者的 iCloud 功能,並向有關單位進行通報。

0824-2.jpg

Photo by niu niu on Unsplash

蘋果好意開發的兒童色情守門員 AI,竟引發隱私權方面的爭議!相關內容請看下篇連結

相關文章:

冬奧將有 AI 裁判!人工智慧如何給選手評分?

年過 50 歲的日本副社長自學 Python!寫出的 AI 還被雀巢採用

導盲犬被 AI 取代?美科學家研發四足機器導盲犬

AI 一對一客服、電話行銷一把罩!人工智慧語音機器人夯

太逼人了吧!人工智慧設計IC晶片只需6小時!

AI打造史上最難羅斯方塊!向世界高手發戰帖!

人工智慧主持人更會帶玩遊戲?

 

 

 

arrow
arrow
    創作者介紹
    創作者 IzzySixxi 的頭像
    IzzySixxi

    重金屬AI工程師的Coding分享

    IzzySixxi 發表在 痞客邦 留言(0) 人氣()