<ins id="617x2"></ins>
<noframes id="617x2"><small id="617x2"></small></noframes>
  • <tr id="617x2"><nobr id="617x2"><delect id="617x2"></delect></nobr></tr>
    <ins id="617x2"><video id="617x2"><var id="617x2"></var></video></ins>
    1. <tr id="617x2"><small id="617x2"><delect id="617x2"></delect></small></tr><tr id="617x2"></tr>
    2. 訂閱
      糾錯
      加入自媒體

      算法的“有毒泡泡”,當真可以戒掉嗎?

      2022-04-07 11:31
      Alter聊IT
      關注

      撰文 / 張賀飛

      編輯 / 沈潔

      關掉個性化推薦功能后,林陌陷入了深深的焦慮。

      “以前打開今日頭條,首頁里總會有很多自己感興趣的內容,雖然覺得自己的可能被算法裹挾了,但真的節省了很多不必要的信息篩選,F在關掉了個性化推薦,滿屏都是和自己無關的垃圾信息!

      《互聯網信息服務算法推薦管理規定》正式實施后,不少APP上線了算法關閉按鈕,允許用戶在后臺關掉“個性化推薦”。向來對算法推薦有微辭的林陌,第一時間就關掉了多個APP的推薦功能,但結果并不是預想中的那般。

      “本來可以在工作間隙刷刷喜歡的短視頻或圖文內容,可在關掉算法推薦后,內容的匹配度大不如前,在屏幕上下滑好幾頁都找不到喜歡的內容,碎片化時間都浪費在了找內容上,而且廣告推薦一個沒少!

      像林陌這樣的用戶顯然不在少數,長期生活在算法編織的環境中,本能上有一種被算法支配的恐懼,卻也在無形中養成了對算法的依賴,想要逃離乃至對抗算法,似乎并不是一件容易的事情。

      01 “有毒”的算法

      尼爾·波茲曼曾在《技術壟斷》一書中斷言:每一種新技術都既是包袱又是恩賜,不是非此即彼的結果,而是利弊同在的產物。

      算法的出現、應用和演變,準確地佐證了波茲曼的斷言。算法本質上是一種分析、預測的數學技術,強調的是相關性,可以用來提高信息和商品推薦的準確性,也有利于降低用戶的時間成本。然而法律監管和用戶意識的“滯后”,再加上算法和互聯網商業模式的深度捆綁,逐漸滋生了許多亂象。

      最早被討論的是“信息繭房”。這是哈佛大學法學院教授凱斯·桑斯坦在《網絡共和國》中提出的概念,公眾在信息傳播過程中會過度偏向自身感興趣的內容,減少和其他信息的接觸,不知不覺間為自己制造了一個“信息繭房”,漸漸沉浸在一個越來越窄的世界,甚至產生一些極端的認知。

      桑斯坦提出“信息繭房”概念的時間是2006年,可由于概念本身過于學術化,加上“算法推薦”在那個時候還是一個相對陌生的詞匯,并未被太多人所關注。直到移動互聯網浪潮的到來,一些創業者開始用算法去討好用戶,不斷猜測并推薦用戶偏好的內容,以增強所謂的用戶粘性和用戶時長,“信息繭房”逐漸成了一種常態化的社會現象。

      但算法的弊端被大多數人聲討的導火索,卻是和用戶利益直接相關的大數據殺熟。電商平臺、出行APP、外賣平臺等都被曝出大數據殺熟的案例,系統會根據用戶標簽推送不同的折扣,同一件商品給新用戶比較低的價格,而老用戶的價格要明顯高一些。北京消費者協會曾對“殺熟”問題進行調查問卷,過半用戶表示經歷過“大數據殺熟”。

      不過算法在輿論場上的公開抨擊,還要等到“數據隱私”的發酵。剛剛在社交網站上聊到某件商品,轉身就出現在了電商平臺的推薦頁面,甚至有網友吐槽自己的電話內容可能被電商APP監聽。個中的因果關系其實并不難解釋,算法的訓練離不開數據原料,用戶的瀏覽記錄、停留時長、興趣愛好等都被平臺偷偷記錄,而為了算法推薦的準確性,一些平臺不無越界侵犯用戶隱私的嫌疑。

      借用一個有些陰謀論色彩的說法:就像是一個溫水煮青蛙的過程,先用算法推薦構建了一張張封閉的“信息繭房”,生活在“繭房”的用戶成為一茬茬被收割的對象,至于收割的方式,或是大數據殺熟,或是監聽用戶隱私……至此,算法不再是“沒有價值觀”的技術名詞,開始和“毒”字掛了鉤。

      02 “靴子”終落地

      當算法被越來越多人詬病,一步步走向污名化的時候,對平臺的算法推薦進行治理的呼吁愈演愈烈,監管的靴子陸續落地。

      前面提到的《互聯網信息服務算法推薦管理規定》就是相應的產物。由網信辦在2021年8月份提出,并于2022年3月1日正式施行!肮芾硪幎ā钡拿^直指算法推薦功能,提出算法推薦服務提供者應當向用戶提供不針對個人特征的選項,或者向用戶提供便捷的關閉算法推薦服務的選項。

      截止到目前,不少互聯網大廠已經響應號召,微信、抖音、淘寶、美團、百度、微博、小紅書等熱門APP,均上線了個性化內容推薦和個性化廣告推薦的關閉按鈕,只是在執行力度上仍有所保留。

      比如網信辦規定平臺要在顯著位置上線算法關閉鍵,現實中很多APP將這一功能隱藏的非常深。以今日頭條為例,想要關掉“個性化推薦”功能,需要打開APP、點擊“我的”、找到“隱私設置”、打開“個性化推薦設置”、關掉“個性化推薦”等至少5個步驟,關閉入口隱藏的比較深且操作繁瑣。

      即便監管的靴子已經落地,而且留下了近7個月的整改時間,不少APP應付監管的態度卻非常微妙,乃至存在對抗監管的可能。畢竟算法推薦早已是許多平臺的流量密碼,一旦用戶關掉“個性化推薦”,可能讓用戶的打開頻率變低、停留時長變短,進而影響平臺賴以生存的廣告收入。

      于是一些平臺并未對非算法推薦進行產品優化,采取了“一刀切”的產品邏輯,用戶在關掉“個性化推薦”后,幾乎找不到符合興趣的內容,本質上在逼迫用戶二選一:要么犧牲掉用戶體驗,要么乖乖回歸算法推薦。

      這還只是觸及了算法推薦的蛋糕,倘若進一步涉及到商品推薦、隱私保護等環節,不排除一些平臺會給出更加狡詐的應對策略;蛟S這才是“技術霸凌”的題中之意,不只是平臺利用技術進行了多少越界行為,還涉及到對用戶行為的綁架,想要逃離“算法陷阱”,必須要付出足夠大的代價。

      讓人沮喪的是,算法規則在時間的推移下越來越復雜,對大部分用戶而言就是一個看不透的“黑箱”,無法理解算法的運作原理,也不知曉有哪些濫用的行為?赡苤皇窃谀硞短視頻上多停留了幾秒,只是打開某個商品鏈接忘記關閉,就會被平臺記錄、利用算法分析,無形中編織了一張逃不掉的網。

      至少在監管對“算法推薦”動刀時,已經驗證了一個不太樂觀的事實:大多數用戶很難走出算法的“圍城”,看似被賦予了拒絕的權利,想要行使權力的難度和代價,卻會讓大多數人放棄改變的想法。

      03 戒不掉的“癮”

      正如德國存在主義哲學家雅斯貝爾斯的觀點:“技術僅是一種手段,它本身并無善惡,一切取決于人從中造出什么,它為什么目的而服務于人!

      這種“技術無罪”的理念,在國內衍生出了“算法沒有價值觀”的結論,同時也成了一些人為算法推薦“洗地”的理論根源。譬如“信息繭房”的話題引發公開討論時,某知名自媒體在文章中赫然寫道:“如果說我們真的需要一條擺脫所謂信息繭房的技術之路,算法顯然是修路者之一,它肯定不是路障!

      其中的底層邏輯往往建立在普羅大眾的“自律”上,如果你不想被“信息繭房”控制,只要主動跳出自己的“舒適圈”就可以,主動去接觸那些不愿接觸的信息,而非把責任全部歸咎于外部的客觀原因。

      此類觀點看似難以辯駁,卻選擇性忽略了另一個既定現實:每每提到移動互聯網時代的創始人,“洞悉人性”可以說是時常出現的一個評價,張一鳴、黃崢等都曾被媒體這般評論。折射到算法誘發的一系列問題上,那些“始作俑者”所擅長的,正是費盡心思地讓用戶上癮,然后毀掉你的自律。

      普林斯頓大學心理學博士亞當·奧爾特,在《欲罷不能》中特意解釋了互聯網的種種“上癮”行為,并將其細分為6個要素,即預設可望而不可即的誘人目標、提供不可抗拒的積極反饋、毫不費力的讓用戶感到進步、給予逐漸升級的挑戰、營造未完成的緊張感、增加令人癡迷的社會互動。

      如果說奧爾特是從產品經理的角度,透析了游戲、短視頻等產品引導用戶上癮的原理,著名戰略問題專家布熱津斯基則從上帝視角提出了著名的奶頭樂理論:世界上80%的人口將因生產力提升被邊緣化,為了安慰社會中“被遺棄”的人,方法之一就是讓企業大批量制造“奶頭”——讓令人沉迷的消遣娛樂和充滿感官刺激的產品填滿人們的生活,進而沉浸在“快樂”中不知不覺地喪失思考能力。

      直接將算法視為奶頭樂理論的“幫兇”,無疑有一些武斷,可毋庸置疑的事實在于,算法強化了用戶的即時滿足心理,放大了多巴胺的刺激和誘惑,讓大多數用戶漸漸適應了“娛樂至死”的狀態。

      令人遺憾的地方正在于此,極大多數用戶不會主動克制自己,習慣性地接受算法的推薦內容,讓算法收集自己的數據,無意識地告訴算法哪些是自己喜歡的內容,最終被框定在一個看不見的“舒適區”中。即使監管層面已經做出了反應,為用戶打開了逃離算法的大門,可想讓用戶靠自律、靠隱私意識的覺醒拒絕成癮,并不是一條可行的路徑,解鈴的鑰匙仍然掌握在系鈴人手中。

      04 治理的“命門”

      并非是想挑起用戶和平臺間的對立,在“算法有毒”的現實語境下,需要“自律”的恰恰是手握算法行使“權力”的互聯網平臺。

      英國學者杰米·薩斯坎德在《算法的力量》一書中提到了這樣一幕:互聯網公司內部幾乎沒有工程師會思考其工作導致的系統性后果,他們中的大部分只需要解決某些分散的技術問題就可以交差了。

      而這樣的情況絕非是少數,每當輿論開始聲討算法的原罪時,涉及其中的互聯網公司都會拋出“技術無罪”的擋箭牌。原因離不開算法運作的“黑箱”機制,即工程師負責提供數據、模型和架構,算法就會給出答案,對中間的運作過程和原理可能并不清楚,甚至工程師自己都覺得是被誤解的一方。

      然而早在幾年前的時候,阿里云的程序員就曾在媒體采訪中驕傲地宣稱:“我們現在已經能夠做到全中國幾億人口的淘寶界面都是不一樣的,而且幾乎做到了秒級更新!蓖瑯哟嬖谒惴ǖ牟豢山忉屝,互聯網大廠們樂見算法產生的正向結果,卻不愿對算法的過程和結果負起相應責任。

      2020年上線的紀錄片《監視資本主義:智能陷阱》,用一句話巧妙地闡述了其中的癥結:“如果你沒有花錢買產品,那么你就是待價而沽的商品!毕M者無須為算法提供的服務直接付費,可隱形的價碼早已被標注。

      現實中的案例證明,互聯網企業并非沒有矯正的空間。早在2019年的Google I/O上,谷歌就公布了一項名為概念激活向量測試(TCAV)的技術,對算法偏見、算法歧視等問題進行技術上的監督。

      歸根結底還是商業利益和用戶權益的平衡,“不作為”偏偏是大多數企業的首要選擇。不只是關閉“個性化推薦”入口上的遮遮掩掩,在用戶增長進入瓶頸時,不少平臺刻意利用算法“殺時間”,抖音、快手、B站乃至知乎都有人為制造“時間黑洞”的嫌疑,算法在某種程度上成了“算計”的工具。

      可把眼光稍微放長遠一些,所有的商業根基都離不開用戶信任。由于企業的趨利、監管的滯后、個體的默許,已然攪起了信息繭房、大數據殺熟等輿論漩渦,何嘗不是用戶試圖對抗算法的一種外在表現?技術固然有著兩面性,身處其中的平臺方卻有能力進行取舍,適當限制算法應用的邊界,調整想要的“目標函數”。

      能否喚醒互聯網平臺的“良知”,才是算法治理的“命門”所在。還是以針對算法推薦的整改為例為例,基于算法對用戶行為的“鎖定效應”,讓用戶在算法推薦有無間進行二選一是一種策略;對算法進行場景化、精細化的治理,站在用戶的立場上給出更好的解決方案也是一種策略。

      但愿一些互聯網平臺能夠站在歷史的正確一邊。

      注:林陌為化名。

             原文標題 : 算法的“有毒泡泡”,當真可以戒掉嗎?

      聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯系舉報。

      發表評論

      0條評論,0人參與

      請輸入評論內容...

      請輸入評論/評論長度6~500個字

      您提交的評論過于頻繁,請輸入驗證碼繼續

      暫無評論

      暫無評論

      人工智能 獵頭職位 更多
      掃碼關注公眾號
      OFweek人工智能網
      獲取更多精彩內容
      文章糾錯
      x
      *文字標題:
      *糾錯內容:
      聯系郵箱:
      *驗 證 碼:

      粵公網安備 44030502002758號

      无码人妻精品一区二区三区99

      <ins id="617x2"></ins>
      <noframes id="617x2"><small id="617x2"></small></noframes>
    3. <tr id="617x2"><nobr id="617x2"><delect id="617x2"></delect></nobr></tr>
      <ins id="617x2"><video id="617x2"><var id="617x2"></var></video></ins>
      1. <tr id="617x2"><small id="617x2"><delect id="617x2"></delect></small></tr><tr id="617x2"></tr>