算法編織了“信息繭房”?抖音公開澄清
撰文/李信馬
1850年,哲學家路德維希·費爾巴哈(Ludwig Feuerbach)在論文《自然科學與革命》中以德語寫下:“Der Mensch ist, was er ißt.”
這句話後來以英文版的“You Are What You Eat”(你吃什麼,就是什麼)傳播到了全世界,既可以指飲食和健康,也可以指人的精神,由其經曆所塑造。
美國行為主義心理學創始人約翰・B・華生(John B.Watson)在1924年出版的《行為主義》(Behaviorism)中也曾提出:“給我一打健康的嬰兒,讓他們在我設定的環境中成長,我能保證隨機挑選一個,將其訓練成我選定的任何類型的專家——醫生、律師、藝術家、商人,甚至乞丐和小偷,無論其天賦、傾向、能力、職業和祖先種族如何。”
環境也許無法徹底決定一個人的命運,但足以深深影響人的三觀。互聯網的出現,讓信息大爆炸,人類通過門戶網站、搜索引擎、公眾號微博等方式去瞭解世界,也被互聯網上或真或假的消息印象。
進入移動互聯網時代,短視頻平台成為新的流量之王,據QuestMobile數據顯示,2024年12月,國內用戶的月人均使用手機時長已經提升至171.7小時,相當於每天超過5.5小時,其中用於短視頻的達到了62.9小時。

短視頻讓人欲罷不能,也因此有人擔心,平台的算法是否編織了“信息繭房”,讓人們只能看到自己感興趣的同質化內容,逐漸變得閉塞甚至偏激?
出於這樣的擔憂和質疑,算法被視為巫術,背後的平台如抖音、快手也經常成為眾矢之的。4月15日,抖音在北京舉辦了“安全與信任中心開放日”活動,由相關業務負責人就抖音算法原理、平台治理體系以及社會關切的問題,向包括DoNews在內的廣大媒體展開了詳細介紹和澄清。
短視頻平台到底有沒有為用戶編織一個個的“信息繭房”?看完這篇文章,或者讀者就會有一個答案。
一、推薦算法:主觀無意願
“信息繭房”(Information Cocoons),是由美國學者凱斯・桑斯坦(Cass R. Sunstein)在2006年出版的著作《信息烏托邦 —— 眾人如何生產知識》中提出的。它是指在信息傳播中,公眾只注意自己選擇的東西和使自己愉悅的內容,如同置身於一個由自己的興趣和偏見編織而成的蠶繭之中,從而將自己的生活桎梏於像蠶繭一般的 “繭房” 中。
抖音推薦算法的原理是什麼?
首先,我們要知道,每天投稿到抖音的內容有上億,而一名抖音用戶,差不多一天只會刷幾百個內容。所以,推薦算法解決的如何從海量的內容中,挑選出用戶喜歡的內容並分發給他。
但這個過程中,算法並不需要瞭解內容,它的重點是學習用戶的行為。
抖音的推薦算法的包括“召回” 和 “排序” 兩個核心環節,當用戶點讚了一些美食的視頻,算法就會從上億量級的投稿內容中,通過召回策略,將適合推送給用戶的內容縮減至萬的量級乃至千的量級。
在篩選出用戶可能感興趣的幾百到幾千個內容後,抖音會通過排序算法,基於用戶的短期行為(點讚、完播率等)與長期價值(收藏、與作者的持續互動、負反饋等),猜測用戶會對哪些內容更感興趣,然後依次打分,再按分數由高到低進行推送。
具體的算法有協同過濾算法,核心邏輯就是尋找興趣相似的用戶群體,比如系統發現你和另一個陌生人點讚的內容有重合,那麼某個你看並點讚的內容,他可能也喜歡,反之亦然。
隨著機器學習發展,神經網絡技術被引入推薦系統。其核心步驟是將用戶與內容的特徵轉化為數值化向量,通過多層網絡結構進行複雜信號融合,從而更精準地匹配用戶需求。基於神經網絡衍生出了雙塔召回模型,將用戶特徵與內容特徵分別輸入兩個神經網絡,通過頂層計算二者相似度,來判斷用戶對內容的潛在興趣。
還有Wide&Deep ,“Wide”層處理淺層次的歷史行為數據(如用戶曾點讚的內容),“Deep” 層通過深層網絡挖掘潛在關聯(如喜歡健身的用戶可能也對爬山、游泳感興趣),相比傳統協同過濾,能更全面地捕捉用戶興趣。
下面這張圖介紹了排序算法的基本原理。

從技術的視角來看,推送給用戶的內容如果太發散,許多是用戶不喜歡的,那用戶的體驗就會變差;但技術的出發點,也不是為了讓用戶只看到自己喜歡的內容。
抖音算法工程師劉暢表示:“用戶長期價值,是抖音推薦算法的‘北極星指標’,也就是我們最核心的業務目標。”
這一指標更接地氣的說法,是抖音希望有更多人使用抖音,並長期留下來。編織“信息繭房”可能短期讓人停不下來,但長期來看不一定是好事,打個比方,如果你知道一個用戶喜歡貓,就不停的給他推送貓相關的內容,那他一段時間後就會厭倦離開。還有的用戶感性上喜歡看推送的內容,但理性上討厭“奶頭樂”,甚至會特意不點讚來擾亂推薦。

所以,抖音反而有動力在推送用戶感興趣的內容時,也通過算法推送多元化的內容,比如一方面,對用戶感興趣的內容,通過多樣性打散、多興趣召回、扶持小眾(長尾)興趣等方法控制相似內容出現的頻次,另一方面,採用隨機推薦、基於用戶社交關係拓展興趣、搜索推薦聯動、“不感興趣”不再展現等方式,讓用戶探索更多的內容。

劉暢在採訪中也表示,抖音的算法在向“長期價值”轉移:“我們一開始比較容易建模是偏短期性的,長期性的反而不好建模,對於一個短期的互動,它的隨機性比較弱,但對長期興趣它的隨機性更強。這個時候我們的技術角度逐步攻克,進一步去做流量上調控。”
只是,客觀來說,愛看自己喜歡的、認同的內容,是人性使然,如果2006年“信息繭房”這個現象就被提出,那麼今天短視頻平台的用戶產生類似擔憂也是不奇怪了。
二、平台治理:客觀有困難
我們畏懼“信息繭房”,更多的是害怕被淹沒在同質化甚至有偏見的信息中,最終潛移默化的被影響和改變。反過來說,如果我們接觸的都是優質和健康的內容,即使是陷入了“信息繭房”中,似乎也不必太擔憂。
但前面有說到,抖音的推薦算法是基於用戶的行為,而非對內容的深度瞭解,那麼,存不存在有害的內容在抖音上不斷傳播的可能呢?事實上,這個可能性是存在的。
客觀上,這些情況的出現絕對不是抖音所希望看到的,只是治理上也有困難。目前,抖音的平台治理鏈路核心有兩個原則。首先是所有在發佈的內容都會經過評估,流量越高的內容經過評估的次數越多,標準也越嚴格。其次是“人工+機器”審核相互分工又密切配合。
具體來說,內容上傳至抖音後,首先進入機器識別環節,如果內容被識別出含有高危特徵,將被直接攔截。如果未命中高危特徵但模型判斷有問題,則會送至人工審核;若問題概率較低,則獲得基礎流量進入下一環節。視頻被舉報、評論區出現集中質疑、流量激增等情況出現,均可能觸發“人工+機器”審核。一旦內容在任一環節被處置,系統會立即停止進一步推薦和分發。
下圖可以看到,一個短視頻要在抖音順利分發,要經過機器和人工的四次審核。就像談毒藥都要談劑量,這樣也儘可能將不良信息的危害控制住。

實際上,平台治理是今年抖音重點任務。抖音生態運營經理陳丹丹在採訪中表示,他們有陸續收到用戶、媒體,還有主管部門的反饋,去年年底也經過了多輪的討論:“我們確實把平台治理和算法透明度作為貫穿全年的重點。我們想要達到的一個目標是信任,因為獲得用戶信任、媒體信任、社會信任是很難的課題。在這個過程當中,需要我們不斷地把治理體系、推薦算法技術做公開,更多是平台選擇了這樣的動作。”
短視頻已經成為國人精神生活的重要組成部分,甚至可以說是當代互聯網文化的重要載體,而非只是賺錢的娛樂,忽視這些,技術這把雙刃劍也有可能造成破壞。除了商業價值之外,抖音也應在社區價值方面承擔更多的責任。