Изненада: Facebook казва, че Facebook A-Добре за новини!
Проучване беше публикувано миналата седмица в списанието Наука което показва, че алгоритъмът на Facebook не е причината за хипотетичния „балон с филтър“ - където хората виждат само новини, които съответстват на техните политически пристрастия в социалната мрежа.Единственият проблем? Това е проучване във Facebook, проведено от хора, които са наети от Facebook.
Трябва ли наистина да сме изненадани, че собствените изследователи на Facebook намаляват до минимум въздействието на манипулациите на тяхната компания с новинарските емисии на хората?
Ученето, Излагане на идеологически разнообразни новини и мнения във Facebook, от Eytan Bakshy и колеги във Facebook, беше публикувано миналата седмица през Наука. Как може това изследване да бъде публикувано в престижното списание Наука? 1 Не трябва ли партньорската проверка да обхване самоцелни проучвания, публикувани от компании, които демонстрират само това, което компанията иска данните да показват?
Човек трябва да се чуди как рецензенти са преминали това проучване, както е публикувано. Много критики на проучването вече са публикувани, така че просто ще направя кратък преглед на проблемите, цитирани от други. Тази критика от Кристиан Сандвиг обобщава до голяма степен проблема с начина, по който изследователите на Facebook завъртяха собствените си открития в публикуваното проучване:
По отношение на сравненията, изследването продължава, че:
„Категорично установяваме, че ... индивидуалният избор повече от алгоритмите ограничава излагането на предизвикателно за отношението съдържание.“
"В сравнение с алгоритмичното класиране, изборът на хората за това какво да консумира има по-силен ефект"
За мен звънят алармени камбани. Тютюневата индустрия някога можеше да финансира проучване, според което пушенето е по-малко опасно от добива на въглища, но тук имаме проучване за пушачите на въглища. Вероятно докато са в въглищната мина.
Това, което искам да кажа, е, че няма сценарий, в който „потребителски избор“ срещу „алгоритъм“ да може да се търгува, тъй като те се случват заедно […]. Потребителите избират от това, което алгоритъмът вече е филтрирал за тях. Това е последователност.
Мисля, че правилното твърдение за тези две неща е, че и двете са лоши - и двете увеличават поляризацията и селективността. Както казах по-горе, изглежда, че алгоритъмът умерено увеличава селективността на потребителите.
Всъщност бихте си помислили, че изследователите на Facebook, които, знаете, работят във Facebook, биха разбрали, че не можете да дразните и отделяте алгоритъма от поведението на потребителя, тъй като единият зависи от другия. Без да манипулирате алгоритъма (което изследването на Facebook Адам Крамер открива, че не е добре да се прави, без първо да се получи информирано съгласие на потребителя), не можете наистина да кажете защо потребителите кликват върху едно нещо повече от нещо друго.
Но този преглед на проучването във Facebook от Зейнеп Туфекчи, професор от Университета на Северна Каролина, Чапъл Хил, пише, че това, което наистина са открити данните от изследването, е заровено в приложението на изследването:
Колкото по-висока е връзката, толкова повече (много повече) вероятно ще бъде щракната върху нея. Вие живеете и умирате чрез разположение, определено от алгоритъма на новинарския канал. (Ефектът, както правилно отбелязва Шон Дж. Тейлър, е комбинация от разположение и факта, че алгоритъмът предполага какво искате).
Това вече беше известно, най-вече, но е страхотно да бъде потвърдено от изследователите на Facebook (проучването е изцяло създадено от служители на Facebook). […]
Една нова констатация е, че алгоритъмът на Newsfeed (умерено) потиска разнообразното съдържание, а друга решаваща и също нова новина е, че разположението в емисията (силно) влияе върху честотата на кликване.
Facebook ви показва новинарски неща, които е по-вероятно да прочетете (защото е в съгласие с вашата политическа гледна точка) и че колкото по-високо се появява във вашата лента с новини, толкова по-вероятно е да кликнете върху тях.
С други думи, манипулацията на Facebook с вашия Newsfeed продължава да бъде важен фактор, допринасящ за определянето на това, върху което най-вероятно ще кликнете. И те продължават да манипулират тази емисия, за да ви показват политически съобразени новини повече, отколкото ако в техния алгоритъм изобщо няма пристрастия.
И както Туфекчи отбелязва важното, това беше малка, избрана група от потребители на Facebook, проучени само защото беше по-удобно (и по-евтино) за изследователите на Facebook да ги изучават. Те разгледаха само потребители, които идентифицираха своята политическа принадлежност във Facebook и редовно влизат в услугата (около 4 процента от всички потребители на Facebook [само 9 процента от потребителите декларират своята политическа принадлежност във Facebook, което означава, че това не е извадка, която можете да обобщите нещо от]). Това не казва нищо за потребители на Facebook, които не декларират политическата си принадлежност във Facebook - което е повечето от нас.
Можеше ли Facebook да проведе по-стабилно проучване? Разбира се, но това би изисквало по-традиционни изследователски техники, като набиране на анкети на сайта в комбинация с рандомизирано набиране на имейли извън сайта.
И така, ето нефилтрираната, безпристрастна констатация от данните (с любезното съдействие на Tufekci), които изследователите на Facebook привидно се завъртяха, за да кажат, че това, което виждате в техния канал, не е по тяхна вина:
Изследователите на Facebook категорично показват, че алгоритъмът за подаване на новини на Facebook намалява идеологически разнообразното, кръстосано съдържание, което хората виждат от социалните си мрежи във Facebook с измерима сума. Изследователите съобщават, че излагането на разнообразно съдържание се потиска от алгоритъма на Facebook с 8% за самоидентифицираните либерали и с 5% за самоидентифицираните консерватори.
Или, както казва Кристиан Сандвиг, „алгоритъмът филтрира 1 от 20 кръстосани твърди новини, които самоидентифицираният консерватор вижда (или 5%) и 1 от 13 кръстосани твърди новини, че самоидентифициран либерал вижда (8%). " Виждате по-малко новини, с които не бихте се съгласили, и които се споделят от приятелите ви, тъй като алгоритъмът не ви ги показва.
За съжаление, извън Ню Йорк Таймс и няколко избрани обекта, повечето масови новинарски медийни сайтове просто съобщиха това, което изследователите на Facebook твърдят в своето проучване, без скептицизъм.
Но сега знаете истината - Facebook проучи малка, непредставителна извадка, след което омаловажи това, което всъщност показаха данните им, за да подчертае резултат, който беше по-положителен за компанията. За мен това е друг пример за изследователи на Facebook, които всъщност не разбират смисъла на научните изследвания - да споделят знания със света, който не е предубеден и манипулиран.
За по-нататъшно четене ...
Зейнеп Туфекчи: Как алгоритъмът на Facebook потиска разнообразието на съдържанието (умерено) и как Newsfeed управлява вашите кликвания
Кристиан Сандвиг: Проучването на Facebook „Не е наша вина“
NY Times: Facebook използва ли поляризиране? Сайтът започва да се различава
Бележки под линия:
- За съжаление сега трябва да добавя още едно списание към списъка си с уважавани научни публикации, които се нуждаят от допълнителен контрол. Както дългогодишните читатели на World of Psychology знаят, този списък се удължава всяка година: Педиатрия (Педиатрията публикува изследвания за технологиите, които очевидно са прегледани от никой, запознат с основните причинно-следствени връзки.), Киберпсихология, поведение и социални мрежи (Киберпсихологията очевидно публикува всяко проучване за пристрастяването към интернет или социалните мрежи, независимо от качеството му.) И сега, Наука. [↩]