Views:
187
自動情感分析的限制
在科技界,人工智能(AI)及算法(algorithm)近年成為熱門的關鍵詞,許多社交平台(social network platform)及情感分析(sentiment analysis)服務平台都宣稱,利用AI及機器學習算法,可以精準推送資訊及判別網民的正負面情緒。然而,眾所周知,接二連三的假新聞及假廣告充斥在那些平台上,卻無法有效被壓止,甚至出現非常尷尬的情況。
近日,在拉斯維加斯槍擊案後,有網友在論壇4chan上,誤指稱槍手是另一名男子Geary Danley(後來很快證實是Stephen Paddock),一時之間錯誤消息在網絡世界散播,Google則將這消息置於搜尋結果的頂端,成為散布假消息的幫兇。同樣地,錯誤的訊息也出現在Facebook的危機反應(crisis response)及安全檢查(safety check)頁面上。在另一社交平台Twitter上,有關此案的錯誤留言也未能倖免。
事後,Google、Facebook及Twitter都宣稱將加強算法的改進及增加人手來控制錯誤訊息。Facebook在數月前曾公佈招募7500名內容審查員(content moderator)來協助過濾虛假訊息,最近也因為懷疑俄羅斯在去年美國總統大選期間利用自動化的帳號散播廣告,而宣稱將增加1000名內容審查員來監測自動化廣告。
為什麼這些全球性的訊息搜索及社交網絡巨頭,皆不約而同地犯了“虛假”的錯誤?難道那些AI和算法都失靈了?
Google都免不了人手監測
事實上,從這些巨頭們碰到的尷尬處境,以及需要大量人手來監測(順便一提,Google News比較準確是因為它是通過人工審查的,與Google Search純依賴算法自動化產生的結果不同),在在說明了一個很關鍵的問題:當前的自動化語意判斷方法(包括各種算法及機器學習方法),很大程度上未能精準地識別出虛假或錯誤的資訊,也就是未能對文本內容的意義進行有效的解讀。
正負面情緒不能解讀為支持反對
一段時間以來,筆者被業者及客戶多次問及自動化分析網絡內容的意義(或稱文本挖掘)的準確度和價值的問題。其實講及這些問題時,在一般人的認知裡,還是停留在情感分析(sentiment analysis)的層面,也就是該內容所表達的正負面情緒,還沒有到判斷情緒的輕重程度,例如非常憤怒與頗為喜歡,或者對某事件、品牌或人物的支持或滿意程度,更遑論是在不同的語境下,真正能理解上文下理的邏輯關係,或是暗語、俚語、反諷語言裡所隱含的意思。
那麼,對於正負面的自動化情感分析,業內是如何做的呢?一般來說,它是利用結合自然語言處理(Natural Language Processing)和文本挖掘(Text Mining)技術,通過標示為正面極性的詞庫和負面極性的詞庫,並賦以權重值, 將欲分析的文本的全部或一部內容做情感的兩極(正、負)或是三分類(正、負、中立),來判斷分析的內容,在藉由文字可以解析出的情緒態度上,是屬於正面、負面,或中立。
社交媒體網民語言多變 難辨指涉對象
然而,這種純自動化的情感分析,有個致命的問題。舉最常見的例子來說,來自網民的社會輿情,主要是指來自社交平台的網民自製內容(user generated content, UGC),其議題範圍廣泛且用語不規範,不同作者的文本敘事方式常常有極大的差異,加上內容本身不見得足以判斷其情感態度(有時可能透過其他網友的留言才能判斷)。在此,自動化情感分析是一套固定程序,且基於特定的內容來源及議題為建立基礎,在實務上僅能分析其正負態度,在甄別其所指涉的對象方面比較困難。
網民態度負面 如何採取採施?
很多時候,在分析一段網民的留言,究竟其情感所指涉的是某個事件、某個人物抑或某個品牌,往往難以找到答案。此時,即便其分析的準確度達到九成以上(一般能達到七成、八成已經很不錯),但對於洞察或決策來說,是毫無意義的。試問,如果一位市場人員或政策決策者,看到分析出來的網民情緒是負面,而不知道其對什麼東西產生負面情緒,如何採取應對措施呢?再者,有一個大多數分析者容易忽略的地方,就是這些本質上沒有指涉對象的正負面情緒,如果是以百分比分佈來表達,很可能會被誤導為指涉政府、品牌或某個人物的支持度或滿意度,其後果已經不是準確度的問題,而是可能導致決策錯誤的問題了。
因此,算法也好,AI也好,在當前的諸多限制下,要讓情感分析真正產生價值,人工的介入是必不可少。至於如何介入,下期再續。
張榮顯 博士
亞太區互聯網研究聯盟主席、香港源大數據首席顧問
(原文載於經濟日報,獲准轉載)
Leave a Reply