Photo Credit: LoboStudioHamburgPhoto Credit: LoboStudioHamburg
編譯:高捷
在下載、使用某些 app 時,往往都要閱讀大量的隱私權保護聲明。而我們大都是略過這長長的文字,直接勾選「我同意」。現在,一個名為「Guard」的網站工具,透過其 AI 人工智慧來分析隱私權政策的文本,它能閱讀各個軟體的隱私政策,將內容拆解成我們可以理解的隱私風險等級。
Guard 目前是免費網站,在上面可以看到知名的軟體、社群媒體等隱私風險等級分析,包括Twitter、Instagram、Whatsapp 、Netflix 等。而使用者也可以建議新的應用程式隱私風險分析,例如,可以建議他們提供 Facebook 的隱私風險評估。
目前 Guard 還在測試階段,但已經提供相當有用的資訊,讓人知道所使用的應用程式中有多少隱私風險,這些風險又是輕微的還是會讓人需要擔憂的。而 Guard 同時會讓你知道這些應用程式涉及了多少隱私醜聞,並透過總體評分、字母等級來做評價。
舉例來說, Twitter 的總體得分是 15% ,列為 D 級別,看起來 Twitter 的隱私權保護並不是那麼讓人完全放心。而在上面也可以看到 Guard 陳述 Twitter 的隱私醜聞為: 2013 年 2 月,約有 25 萬筆用戶資訊包括用戶名稱、電子郵件等被駭客入侵而外洩。
在 Guard 上我們也可以看到 Spotify 的評分為 32% ,等級 C 、沒有任何醜聞。而 Youtube 的評分是 37% ,等級也為 C ,沒有醜聞。 Spotify 分數較低是因為 Guard 認為 Spotify 最大的隱私威脅是在用戶數據可能會被出售給廣告商。
然而,現在還沒有其他公正組織或是第三方單位可以驗證 Guard 的準確性,但 Guard 邀請大眾、網路使用者一起來訓練 AI ,透過大量的資訊分享讓其人工智慧可以更加精準。
Guard 的開發者是位於西班牙馬德里的 Javi Rameerez ,他專精於「自然語言處理」( Natural Language Processing, NLP ),意即「讓電腦擁有理解人類語言的能力」。Rameerez 表示,為了達成此目標,便需要有更多人一起「教導」機器人學會判斷隱私權內容。
(人們可能未必真的知道什麼隱私政策是對自己有利的。來源:staffordgreen0)
(人們可能未必真的知道什麼隱私政策是對自己有利的。來源:staffordgreen0
教導 AI 的方式是, Guard 會引導用戶進行一個網站上的測驗,用戶透過選擇題的方式來判斷哪一個隱私權政策對自己較為有利,而 Guard 在透過這些測驗的數據蒐集與分析,來建構更完整的 AI ,並讓其觀點盡可能和人類一致。但這樣的測驗方式有個風險就是,人們可能未必真的知道什麼隱私政策是對自己有利的,亦有可能無法預測或是評估未來的潛在風險。但 Guard 在網站上的宗旨表明,每個數據都可以幫助 AI 理解人們對於隱私的接受度,最終目標是讓這個 AI 可以保護人們在網路世界中的安全。(同場加映:拿回病歷主控權!台灣新創將病歷寫入區塊鏈,隨身攜帶也不怕洩露隱私
(Guard希望每個數據都可以幫助 AI 理解人們對於隱私的接受度,以保護人們在網路世界中的安全。來源:notnixon)
(Guard希望每個數據都可以幫助 AI 理解人們對於隱私的接受度,以保護人們在網路世界中的安全。來源:notnixon
舉例來說,在一項測驗中有兩個選項,第一個選項是「禁止未經我事先同意下,使用自動化系統來獲得數據、資料」,第二個選項是「若你向我們提供你的資料,就表示你同意此類資料的傳遞」。從字面上看,第一個選項的隱私保護較為安全,但實際情況可能不單單只是兩個選項這麼簡單。在經過多道題目測驗後,用戶可得知結果, Guard 會告知該用戶隱私風險判斷能力是高於或是低於其他受測者。
Guard 鼓勵更多不同背景、族群的人加入,透過人口統計學上的區分例如年齡、種族、教育程度,你可以邀請相對少數的群體朋友像是少數民族來進行測驗,這樣的鼓勵是為了避免 AI 在學習過程中因為某些數據過多而造成偏差。當然, Guard 承諾這些數據都會是保密而且匿名的。
核稿編輯:李沂霖
覺得這篇文章不錯嗎?社企流希望帶給你更好的內容,打造更美好的社會! →馬上支持
參考資料

文章標籤

  • 社企案例地球村

    社企案例地球村

    由社企流編輯群介紹世界各國社會創新案例,讓你不出門也知天下事!