Search
  • Mercy Shao

韓劇《千萬別跟那個男人交往》演算法如何分析個人數據以創造衝突

由宋昰昀出演的韓劇《千萬別跟那個男人交往》,在LINE TV和愛奇藝持續更新中。除了AI智能冰箱和戀愛故事外,大家是否在意劇情中資訊安全、數據道德問題呢?你知道嗎,AI冰箱將男主是渣男的證據推播給女主的技術,一直都在社群軟體中上演?


圖片來源:LINE TV 共享追劇生活, YouTube頻道


韓劇《千萬別跟那個男人交往》的劇情大致是這樣,宋昰昀扮演在智慧家電公司上班的員工,不確定她的職務是軟體工程師、硬體工程師、機器學習訓練師、數據科學家(總之看起來都不太像),正在開發一款搭載自然語言處理技術的智能冰箱,除了冷藏功能外,其演算法主要根據使用者的年齡、性別、地區、職業,輸出建議食譜。冰箱在某次測試中故障,機器修好後開始逕自違反韓國個人訊息保護法(PIPA),在未經授權的情況下運算其他企業防火牆內的數據,然後將洞察結果產出給女主。於是女主在第2集發現未婚夫是渣男,憤而分手。


劇中真實的呈現了一個橋段,女主在發現未婚夫的破事前,先輸入了主管、同事等人進行測試,於是根據使用者─女主角的喜好及使用習慣,智能冰箱推薦了讓她憤怒的內容。


社交軟體 引發衝突的演算法


當這個場景移到搜尋引擎及社交平台上,我們開始搜尋和閱覽訊息時,科技公司正在蒐集我們的喜歡、分享、評論、點擊、停留時間等相關訊息,當訊息量夠大時,演算法會開始根據我們的喜好推薦我們感興趣的內容。於是,我們會看到更多和我們意見一致、喜好相仿的內容,形成「同溫層」,也稱為回聲室效應(echo chamber),導致我們難以感知到與我們不同的意見,而這種現象也被廣泛認為是2016年美國總統大選中川普當選、英國脫歐投票通過的主因。然而事實並非如此。


病毒內容網站Upworthy的首席執行官Eli Pariser將這種效果稱為「過濾氣泡(filter bubble)」,我們會取消關注與我們意識形態相反的用戶,也會和意識型態相同的用戶貼文互動。然而,在自然使用下,仍有29%的內容會出現與我們意識形態相衝突的觀點,為什麼呢?因為許多用戶在遇到與自己意見牴觸的內容時,會留下生氣情緒、留下憤怒的評論,甚至搜尋和點擊更多相關訊息。Facebook的數據科學家曾在2015年向《紐約時報》表示,個人選擇要點擊哪些故事的影響,比Facebook的過濾機制更大。因此引發衝突與對立的內容會有三分之一的機會被看見。


圖片來源:愛奇藝《千萬別跟那個男人交往》


雖然社交平台被普遍認為是影響世界觀、散播假消息、加劇社會衝突的「科技巨獸」,然而在2020年,《華爾街日報》收到知情人士的透漏,Facebook首席執行官馬克·扎克伯格(Mark Zuckerberg)在公開場合和私人場合都對「駭人聽聞和兩極分化」問題表示關注,並正在為減少用戶分歧努力。然而,沒有衝突就是好嗎?


抖音和TikTok管制言論自由 以避免社會分化


抖音在2020年9月,日活躍用戶已經突破6億;而TikTok也在2020年10月超越Instagram 成爲美國青少年中間第二受歡迎的社交媒體應用軟體。抖音和TikTok的內容早已從音樂創意短視頻拓展到生活,經濟,商業,甚至政治等五花八門、無所不包的內容,然而也牽涉到違法犯罪內容、涉及未成年人保護問題,甚至政治爭鬥。


北京字節跳動科技ByteDance曾向英國《衛報》表示:「TikTok成立初時,我們採取了一種直率的方法來盡量減少平台上的衝突,我們的審核準則容許處罰諸如宗教派別或族裔群體之類的煽動衝突內容,這些行為跨越各地。」截至2019年底,在中國有數百個100萬粉絲以上抖音賬號被封。隨著用戶海量的視頻上傳,TikTok也在不斷「刪帖」。僅2019年下半年,TikTok總共在全球刪除了4900萬條視頻, 其中1/4涉及成人裸體和性交等兒童不宜的內容。


然而,英國《衛報》仍質疑抖音和TikTok的中國話題審查規範,屏蔽的內容包括98年5月印尼暴動、柬埔寨種族滅絕、八九六四天安門事件、伊斯蘭教派衝突,以及北愛爾蘭、車臣共和國、西藏和台灣地區的獨立議題,還有黑人與白人間的種族衝突,也被視為違規內容。


你覺得,社群平台上那些牴觸我們意識形態的言論,是分化社會的元兇嗎?

因為言論與意識形態造成的衝突是誰的責任呢?是政府、科技公司、演算法、使用者,還是新聞從業人員?