asdfg789 發達集團副總裁
來源:哈拉閒聊   發佈於 2021-01-31 08:02

不想被演算法牽著鼻子走?這三招也許幫得上忙

社群媒體與搜尋引擎的演算法,讓我們可能接觸到可能感興趣、分享或覺得窩心的事物,但我們也更可能遭到網路攻擊、接收到不實訊息,助長陰謀論,同時也讓我們深陷在兩極化的同溫層小圈圈裡面。
當然,這不能全怪演算法,畢竟這只是一種科技,不過,美國前總統川普被臉書和推特「噤聲」,凸顯出要讓這些科技呈現、或是不呈現哪些資訊,最終還是由人類來決定,這也反應出一個重大的問題:電腦決定了我們觀看的內容,但整個流程卻缺乏透明度。

若要擺脫演算法帶來的同溫層困境,華爾街日報專欄作家史坦(Joanna Stern)分享了三個可能派得上用場的點子:


●沒有演算法、也沒有廣告


標榜為反臉書的社群媒體MeWe創辦人韋恩斯坦(Mark Weinstein),所提供的解決方案很簡單:回到完全不經操作、完全依照時間順序呈現最新動態。若MeWe的用戶追蹤了某個朋友、某個粉絲團或某個專頁,那麼這個朋友、粉絲團或專頁所發表的最新動態,將直接呈現在用戶的動態牆上。

他表示,確切來說,這限制了不實資訊的散播,「除非用戶自己選擇追蹤,否則不會接觸到不實資訊。動態牆不會充斥被演算法、俄羅斯政府,或中國政府塞過來的不實資訊」。

這種沒有演算法排序、純粹按時間順序呈現的動態牆,可能會被各種貼文淹沒、且難以分類。這正是為什麼推特、臉書及Instagram(IG)等社群媒體會不再把動態牆的預設呈現方式,設定為按時間順序排列。

MeWe主要靠付費功能與優質(premium)訂閱方案賺錢,而非廣告。韋恩斯坦說,MeWe運用篩選分類機制、和管理動態的工具,解決這些問題。用戶能根據自己追蹤的聯絡人、粉絲團及專頁進行分類,而且因為沒有目標廣告,MeWe不會持續蒐集用戶資料。

●降低有害內容的呈現順序


對仰賴廣告的大型企業來說,完全不使用演算法根本是不可能的任務。不過,專家建議,社群平台應認真思考,把暴力、憤怒和陰謀論貼文的呈現順序往後拉,並提高可信度高、思慮縝密且信譽良好內容的呈現順序,即便這可能會降低用戶的參與度。

柏克萊加州大學電腦科學教授法瑞德表示:「其實演算法只要決定,『我們認為華爾街日報、維基百科、世界衛生組織(WHO),比莫名其妙的網站更有價值』。」

而且證據也顯示,這種方法能奏效。法瑞德和其他研究人員在去年3月的一份研究發現,在YouTube調整推薦影片的演算法後,事實上也減少推廣陰謀論的影音。臉書和推特也都已採取行動,限制散布被演算法認定可能為不實資訊的內容。

監管機構可能也要介入。除了各種反托辣斯訴訟之外,各界也不斷呼籲特定企業要對自己的演算法負起責任。部分媒體報導顯示,臉書相當清楚其推薦機制會引導用戶加入極端團體。民主黨籍的眾議員馬林諾夫斯基(Tom Malinowski)與埃舒(Anna Eshoo)已提出一項法案,目標是讓平台為「以演算法助長極端主義」承擔責任。


●用戶取回控制權


有人會說,「我就是想看廣泛政治光譜的新聞」、「我只想看我朋友或家人的動態」,那麼做得到嗎?

至少,臉書允許用戶知道,為什麼會讓用戶看到這些動態。點擊任一貼文右上角的「平行三點」按鈕,便能找到「為什麼我會看到這則貼文」。若你認為按時間順序排列動態才是你要的,某些服務也提供這類功能,至少是暫時的,但這些設定都藏得相當隱蔽。

例如,在臉書的網頁上,點選動態訊息最上方的首頁圖示,捲動左邊的選單,選擇「顯示更多」、再選「最新動態」;在行動裝置的臉書應用程式(App),點選出現在螢幕右上或右下方的「三條橫線」鈕,再尋找「最新動態」。不過要知道,當用戶關閉網站或App時,將退出這種設定。

至於Youtube,用戶無法關閉整套演算法推薦機制,但能選擇在各個類別或搜尋關鍵字時,切換成瀏覽最新影片。用戶也能關閉自動播放功能:用網頁的話,按一下影片播放器底部的切換按鈕;用App的話,輕觸影片播放器頂端的按鈕。

若社群媒體呈現的內容只和我們、朋友、家人有關,那會是另一回事,但多年來,社群媒體已不只是讓用戶沉浸沉湎於過去回憶之處,也已成為許多人瀏覽世界、並型塑世界觀的管道。

評論 請先 登錄註冊