編譯:高捷
在下載、使用某些 app 時,往往都要閱讀大量的隱私權保護聲明。而我們大都是略過這長長的文字,直接勾選「我同意」。現在,一個名為「Guard」的網站工具,透過其 AI 人工智慧來分析隱私權政策的文本,它能閱讀各個軟體的隱私政策,將內容拆解成我們可以理解的隱私風險等級。
Guard 目前是免費網站,在上面可以看到知名的軟體、社群媒體等隱私風險等級分析,包括Twitter、Instagram、Whatsapp 、Netflix 等。而使用者也可以建議新的應用程式隱私風險分析,例如,可以建議他們提供 Facebook 的隱私風險評估。
目前 Guard 還在測試階段,但已經提供相當有用的資訊,讓人知道所使用的應用程式中有多少隱私風險,這些風險又是輕微的還是會讓人需要擔憂的。而 Guard 同時會讓你知道這些應用程式涉及了多少隱私醜聞,並透過總體評分、字母等級來做評價。
舉例來說, Twitter 的總體得分是 15% ,列為 D 級別,看起來 Twitter 的隱私權保護並不是那麼讓人完全放心。而在上面也可以看到 Guard 陳述 Twitter 的隱私醜聞為: 2013 年 2 月,約有 25 萬筆用戶資訊包括用戶名稱、電子郵件等被駭客入侵而外洩。
在 Guard 上我們也可以看到 Spotify 的評分為 32% ,等級 C 、沒有任何醜聞。而 Youtube 的評分是 37% ,等級也為 C ,沒有醜聞。 Spotify 分數較低是因為 Guard 認為 Spotify 最大的隱私威脅是在用戶數據可能會被出售給廣告商。
然而,現在還沒有其他公正組織或是第三方單位可以驗證 Guard 的準確性,但 Guard 邀請大眾、網路使用者一起來訓練 AI ,透過大量的資訊分享讓其人工智慧可以更加精準。
Guard 的開發者是位於西班牙馬德里的 Javi Rameerez ,他專精於「自然語言處理」( Natural Language Processing, NLP ),意即「讓電腦擁有理解人類語言的能力」。Rameerez 表示,為了達成此目標,便需要有更多人一起「教導」機器人學會判斷隱私權內容。
教導 AI 的方式是, Guard 會引導用戶進行一個網站上的測驗,用戶透過選擇題的方式來判斷哪一個隱私權政策對自己較為有利,而 Guard 在透過這些測驗的數據蒐集與分析,來建構更完整的 AI ,並讓其觀點盡可能和人類一致。但這樣的測驗方式有個風險就是,人們可能未必真的知道什麼隱私政策是對自己有利的,亦有可能無法預測或是評估未來的潛在風險。但 Guard 在網站上的宗旨表明,每個數據都可以幫助 AI 理解人們對於隱私的接受度,最終目標是讓這個 AI 可以保護人們在網路世界中的安全。(同場加映:拿回病歷主控權!台灣新創將病歷寫入區塊鏈,隨身攜帶也不怕洩露隱私)
舉例來說,在一項測驗中有兩個選項,第一個選項是「禁止未經我事先同意下,使用自動化系統來獲得數據、資料」,第二個選項是「若你向我們提供你的資料,就表示你同意此類資料的傳遞」。從字面上看,第一個選項的隱私保護較為安全,但實際情況可能不單單只是兩個選項這麼簡單。在經過多道題目測驗後,用戶可得知結果, Guard 會告知該用戶隱私風險判斷能力是高於或是低於其他受測者。
Guard 鼓勵更多不同背景、族群的人加入,透過人口統計學上的區分例如年齡、種族、教育程度,你可以邀請相對少數的群體朋友像是少數民族來進行測驗,這樣的鼓勵是為了避免 AI 在學習過程中因為某些數據過多而造成偏差。當然, Guard 承諾這些數據都會是保密而且匿名的。
核稿編輯:李沂霖
覺得這篇文章不錯嗎?社企流希望帶給你更好的內容,打造更美好的社會! →馬上支持
參考資料