Серед українських Facebook-користувачів зростає обурення через блокування (про)українського контенту. Найсвіжіший приклад – допис посла України в Чехії Євгена Перебийноса із критикою слів президента Росії Путіна про «один народ» Facebook видалив, бо він нібито «розпалює мову ворожнечі».
Ми звернулися за поясненнями до адміністрації соцмережі, зібрали інші подібні історії й враження та попросили аналітикиню даних поділитися міркуваннями щодо роботи алгоритмів.
Невдовзі цей пост повернули. Але чому блокували? І що було не так з дописом про звірства НКВС у Львові в 1941 році, після якого адміністрація Facebook одразу видалила обліковий запис української дослідниці Устини Стефанчук?
Допис Устини також відновлено, сторінку розблоковано. Але осад і запитання залишилися.
Чому блокують такий контент? Хто це робить: модератори чи алгоритми? Адже алгоритми – це теж результат роботи людей, які можуть закладати у них свої упередження та симпатії. Цю проблему вже обговорюють у світі, де все більше рішень щодо людей приймається на основі машинного аналізу.
«Я не схильна вірити в теорії змови, – коментує свій випадок Устина Стефанчук. – Мабуть, блокували за ключовими словами. Інше питання, як вони забиті в алгоритмах Facebook — ось що цікаво…».
Вона каже, що раніше отримувала попередження – після висловлювань про війну на Сході й підтримку українських захисників, про попсове святкування Дня Незалежності та ходу військовослужбовців, пишуть Тексти
Що саме допомогло врешті повернути обліковий запис: скарга чи розголос, Стефанчук гадки не має.
Речниця компанії Facebook Маґдалена Шульц повідомила у відповідь на запит ТЕКСТІВ, що профіль та обидва дописи були помилково обмежені та тепер відновлені.
«Наша команда ретельно переглянула їх та визначила, що вони не порушують нашу політику. Ми дійсно шкодуємо за можливі незручності», — написала вона. За її словами, адміністрація щотижня переглядає мільйони дописів, іноді працівники (review teams в оригіналі її відповіді) помиляються — хибні рішення трапляються в більше ніж одному з 10 випадків. Щоб цього уникнути, модераторів навчають та тестують на конкретних прикладах стандартів спільноти. Щоразу, коли стандарти оновлюються, працівники проходять підвищення кваліфікації.
Якщо користувачі вважають, що видалений контент не порушує стандарти спільноти, вони можуть оскаржити рішення, надавши додаткову інформацію.
Маґдалена Шульц також пояснила, що однієї скарги достатньо для блокування невідповідного контенту. Але якщо він не порушує стандарти спільноти, то не буде видалений навіть попри велику кількість скарг.
Але за якими критеріями спочатку заблокували цей контент, адміністрація Facebook не відповіла: конфіденційна інформація.
З відповіді можемо лише зробити висновок, що завжди варто оскаржувати блокування, якщо вважаєте, що жодних стандартів не порушували.
Згадані два випадки – далеко не єдині: український патріотичний контент доволі часто блокують.
Це викликає тривогу в українському сегменті Facebook з огляду на те, що російська пропаганда вже кілька років поспіль просуває на західну аудиторію наратив про «войовничий націоналізм», «український фашизм» та «екстремізм».
Задайте будь-який з цих виразів (російською) у пошуку на дашборді, де ТЕКСТИ відстежують російську пропаганду – побачите, як часто і що саме просувають на цю тему.
Дезінформатори всіляко підсилюють вигаданий ними вплив ультраправих рухів в Україні у своїх маніпулятивних публікаціях, і частина західних інтелектуалів поверхово, не заглиблюючись у суть подій, схильна у це вірити, чи принаймні не задумується про те, брехня це чи правда.
Згадайте історію про те, як професор Стенфордського університету та колишній посол CША в РФ Майкл Макфол (Michael McFaul) ретвітнув твіт російського МЗС із пропагандиськими меседжами щодо жертв 2 травня та «неонацистів», які нібито спричинили «різанину». Професор врешті дослідив тему і видалив ретвіт.
Чи закладені у Facebook-алгоритмах якісь додаткові застереження щодо українського контенту, що базуються на цих навіть несвідомих упередженнях розробників? Ми не можемо про це дізнатися. Можемо лише аналізувати інформацію на основі відомих випадків блокування.
Лайфхаки: писати українською, обмежити коло читачів
Наприклад, митець і громадський діяч Руслан Горовий вперше зіткнувся зі «стандартами Facebook» ще у 2015-му, після того як його фільм «Укропи Донбасу» про українських патріотів на території окупованої Луганщини показали на фестивалі «Муза непокорных-2015» у Москві.
Після виходу фільму його обліковку на Facebook «заморозили»: спочатку на день, потім на тиждень, а потім була ціла серія місячних банів. Бувало, що між ними минало буквально кілька годин — не встигав навіть нічого запостити.
Сьогодні він уже знає, як цьому протидіяти. За порадою друзів обмежив коло своїх фб-читачів — і після цього більше не було жодного тривалого блокування. Останнє попередження прилетіло, коли він, як і Устя Стефанчук, написав про події 1941 року у Львові. Для більш суворого «покарання», припускає, що забракло скарг. Каже, якби, як і раніше, писав російською мовою — так просто не відкараскався б. Мовляв, росіяни лише декларують, що у нас з ними «один народ, один язык, одна страна», а по факту не розуміють україномовні дописи, з перекладом ніхто не заморочується.
«Фактично українська мова — це ще один буфер», — сміється Горовий. Сам він пише звернення до адміністрації Facebook виключно англійською мовою — побоюється, що алгоритми можуть перекинути україномовний запит якомусь проросійському модератору. Стандарти стандартами, а людський чинник завжди присутній.
«У бізнесу абсолютно свої закони. Ви можете обурюватися чи жалітися — це все не матиме жодного значення, — переконує Горовий. — Корпорації на кшталт Facebook не ризикуватимуть парою мільйонів, які у них можуть відсудити через ваш необачний допис. Саме тому так наполегливо посилюють правила поведінки».
«Чутлива» військова тематика
Лише за минулі два місяці було видалено щонайменше п’ять українських сторінок, присвячених військовій тематиці:
«День піхоти» — 27 тис. підписників;
«Військові новини України» — 150 тис. підписників;
«Фортифікація» — 28 тисяч підписників;
«Військова служба Military service» — 27 тис. підписників;
«Збройні сили України» — 8,2 тис. підписників.
Попередження за публікації, які начебто порушують норми спільноти, прилетіли сторінкам «Командування Сухопутних військ ЗСУ» та «30 ОМБР ім. князя Костянтина Острозького». Це означає, що якщо їм «впиляють» ще одну порцію скарг — їх теж заблокують.
Чи об’єктивні модератори?
Адміністратори нещодавно заблокованих спільнот також намагаються боротися за їхнє відновлення. Серед них — офіцер Збройних сил України, військовий аналітик Анатолій Штефан.
Він переконаний, що нещодавні блокування – цілеспрямована атака, до якої причетні російські інформаційні війська. Про це свідчать синхронність скарг і антиукраїнські висловлювання в коментарях. У його практиці це не вперше — на такі випадки у нього з побратимами є запасні сторінки з ідентичними назвами. Але каже, що раніше ніколи не блокували п’ять спільнот одночасно, до того ж таких масових.
Крім того, Facebook без пояснень «заморозив» уже другий профіль Штефана, в одному з них він був верифікований як уповноважений Генерального штабу. Тим часом, наприклад, сторінка окупаційної адміністрації міста Горлівка вільно публікує на фейсбуці звіти своїх засідань. Що там казати — є навіть сторінка «Официального сообщества Народного Совета Донецкой Народной Республики», вже саме існування якої можна розцінити як заклик до повалення конституційного ладу та захоплення державної влади в Україні. Активісти кажуть, що на відміну від російських інформаційних військ, для оскарження діяльності таких сторінок їм бракує масовості та згуртованості.
Штефан також писав у техпідтимку Facebook. На диво, йому передзвонили з польського номера. Представниця демонстративно сказала, що не розуміє українську і попросила говорити з нею російською. Наголосила, що її звати не Олеся, як до неї звертався Штефан, а Алєся.
«Я не думаю, що адміністрація Facebook до цього якось причетна. Але впевнений, що Росія має вплив на людей, які модерують український контент», — каже Штефан. І згадує, як разом із побратимами скаржився на відео з російським обстрілом українських позицій. Їм відповіли, що воно не порушує жодних стандартів і правил спільноти. Але щойно виклали відео з українського навчального стрільбища — вмить прилетіли скарги і попередження про неприпустимість такого контенту «через жорстокість».
Загадкові стандарти спільноти
Але що це взагалі таке — ці загадкові стандарти спільноти, до яких так наполегливо апелюють охоронці віртуально правопорядку? Цей документ можна легко знайти на фейсбуці. Він складається зі вступу і шести розділів, які періодично оновлюються. Неприйнятним вмістом вважається пропаганда ненависті та підбурювання, шахрайство й обман, залякування й приниження, насильство та його ілюстрації, оголеність і сексуальна активність, жорстокість і нечуйність, сексуальні домагання, порушення авторського права.
Дедалі більше сайт покладається на штучний інтелект, який позначає дописи як шкідливі, щоб зменшити навантаження на людей – найманих модераторів. Тисячі дописів відновлюють після апеляцій.
З жовтня 2020 року почала працювати Наглядова рада, яка інтерпретує правила і консультує модераторів. Фейсбук не називає загальну кількість обліковок, які він блокує за рік.
Востаннє стандарти спільноти оновлювалися в січні цього року. Після штурму Капітолія США адміністрація посилила політику проти мілітаризованих соціальних рухів та конспіративних мереж, що закликають до насильства. Було вилучено близько 3400 сторінок, 19 500 груп, 120 подій, 25 300 профілів у Facebook та 7500 акаунтів в Instagram. Але це більше стосувалося американських рухів, типу QAnon.
У Facebook визнають, що не існує простої формули для розв’язання всіх проблем на платформі. Взаємодіяти з понад 2,7 млрд користувачів практично неможливо. «Наша політика ніколи не тішитиме всіх», — визнають у стандартах мережі. Щоб врахувати в правилах якнайширший спектр думок, адміністрація веде діалог з експертами, які займаються питаннями цифрових прав людини, боротьбою з дискримінацією та свободою слова, залучають науковців. Коли вирішують, чи дозволяти публікувати фото та відео, на яких є оголені люди або, наприклад, сексуальна активність, радяться з художниками, кураторами музеїв та організаціями з сімейної безпеки.
Оскільки слова мають різне значення та емоційне навантаження залежно від місцевості, мови та історії, в адміністрації обіцяють враховувати регіональний контекст. Для цього на загальний форум запрошують місцевих представників та експертів. Але з відкритих джерел зрозуміло, що публікувати контент, який, наприклад, відверто зображує війну або її наслідки, не заборонено. Головне, щоб він відповідав інтересам суспільства. «Перед ухваленням таких рішень ми добре зважуємо цінність такого контенту для громадськості та можливу шкоду», — йдеться в стандартах Facebook.
«Позитив» проти вірогідності
Віталій Жилак, який серед іншого займається інтернет-маркетингом і налаштовує рекламу у країнах ЄС, ставиться до всіх цих стандартів та правил з долею скепсису. Він вважає, що Facebook практично не керується критеріями вірогідності чи правозахисту. І впевнений, що адміністрація захищатиме все, що подобається людям і блокуватиме все, що не подобається. Він переконаний в цьому з власного досвіду. «Навіть якщо сторінку розблокують, мене вже втомила політика Facebook, де сам факт наявності скарг стоїть вище змісту та обґрунтованості цих скарг», — каже Жилак.
Зараз він шукає іншу платформу для своєї фейсбук-сторінки «Антисекта — наука vs псевдонаука», де викриває маніпуляції та фейки, навчає людей критично мислити і прищеплює здоровий глузд. Нещодавно хтось поскаржився на його контент, сторінку заблокували. Жилак написав оскарження в техслужбу (каже, зазвичай відповідають зі США або Нідерландів). Переписка, за його словами, закінчилася тим, що модератори погодилися, що в нього хороший контент, «який просуває правильні речі», але розвели руками, мовляв, нічого не можуть вдіяти, бо ж він «викликає негативну реакцію у людей». А вони хочуть, щоб досвід користувачів був позитивним.
Хвиля блокувань була у 2015-му
Теперішня ситуація нагадує 2015 рік. Тоді теж була хвиля банів, користувачів з активною проукраїнською позицією буквально засипали скаргами та попередженнями. Вплив зовнішніх сил був настільки помітний, що українська спільнота на одній з онлайн-сесій з Марком Цукербергом поскаржилася на несправедливість при блокуванні сторінок і дописів з боку соцмережі. Тоді теж були підозри, що український сегмент перебуває під кураторством російського менеджменту. У відповідь очільник Facebook запевнив, що в Росії немає адміністрації, яка б впливала на український сегмент мережі: «Кожен, хто думає, що модерація відбувається з російського офісу антиукраїнськими модераторами, помиляється».
Це не дуже переконало активістів, тому вони закликали його створити український підрозділ Facebook. Неочікувано ініціативу підтримали в Міністерстві інформаційної політики України — почали «бомбити» корпорацію листами, вийшли на керівницю громадської політики у Центральній та Східній Європі Ґабріелу Чех. Того ж року вона приїхала в Україну і зустрілася з тодішнім міністром Юрієм Стецем і його заступником Артемом Біденком. Така активність призвела до певної стабілізації: стали менше блокувати, через Чех вирішували складні суперечливі випадки. Зрештою, у 2019 році призначили менеджерку з публічної політики в Україні Катерину Крук.
В описі цієї вакансії було написано, що менеджер із публічної політики Facebook в Україні стежитиме за місцевим законодавством і політичною ситуацією, представлятиме компанію на зустрічах із владою і ЗМІ, радитиме іншим підрозділам компанії, як розвивати соцмережу з огляду на місцеву державну політику.
Українські фейсбук-користувачі знають про існування менеджерки й очікують від неї втручань, однак офіційного каналу для таких звернень немає, і невідомо, чи входить це в її обов’язки.
Пам’ятаючи про 2015 рік, Артем Біденко, який нині очолює Інститут інформаційної безпеки, вважає, що зараз черговий «занепад» взаємин із Facebook. «Нові заборони, бани, ігнор від адміністрації — таке враження, що росіяни намагаються використати баги системи… Я не бачу іншого шляху, ніж знову виходити на західні ЗМІ з сильною офіційною позицією. Велика корпорація вимагає гри за великими правилами — важлива позиція уряду, вона має бути сильною і публічною. На жаль, зараз, з невідомих мені причин, урядовці засунули язики ясно куди і навіть не можуть зробити офіційну заяву», — зітхає Біденко.
Крім цього, на його думку, є також проблема в недосконалості самої системи — величезна корпорація швидше реагує на великі подразники. Тому логічно, що коли десятки тисяч (про)російських користувачів скаржаться, сотні українських активістів нічого не можуть цьому протиставити. Дієвий спосіб — втручання міністерства та уряду, які мають сказати, що бачать проблему подвійних стандартів і обмеження свободи слова. В 2015 році це спрацювало, тому Біденко вірить, що спрацює і зараз.
Кого і за що банили у Facebook
Святослав Літинський: «За цитування посилання зі словника. Сказали, що спам у фб».
Іванчук Надія: «Мій профіль уже рік стоїть із поміткою попередження. А все тому, що організовуючи благодійні фестивалі, я часто поширюю про них різну інформацію. Facebook сприймає мене за спамера».
Денис Суділковський: «За посилання на сайт Верховної Ради (ймовірно, бо той без сертифікатів безпеки працює)».
Юрій Гончаренко: «Місяць бану і річне обмеження якості акаунту за три секунди прапора «Азову» в стрімі з маршу добровольців. Розцінили як поширення екстремізму. Оскарження не допомогло».
Катерина Стулень: «Бан на тиждень за моє відео звільнення Маріуполя, бо «Азов» — екстремістська організація». За це ж відео видалили взагалі сторінку мого чоловіка і ще купу груп у фб, які репостнули те».
Дарина Березіна: «Кілька разів скидала собі в приватний допис схеми в’язання гачком. Щоразу фейсбук ці пости випилював, люб’язно сповіщаючи мене, що “вбачає в них заклик до екстремізму”. Щоправда, не банив».
Руслан Дух: «Мене банять періодично з 2012 року за всім відому назву росіян, яка починається на літеру «ме», а найсуворіший бан на три місяці отримав за мапу Сибірської народної республіки».
Іван Бабошин: «За слово «ч*рка», при чому я мав на увазі «цурку» — дрова тобто».
Отар Довженко: «За саркастично вжите слово «татарва». Воно було вкладене в уста уявного кцп. Але це не захистило мене від бану».
Користувачі фейсбуку, які зазнали обмежень, не знають, заблокував їх автоматичний фільтр чи жива людина, і сталося це після скарг чи автоматично.
Експертка: «Скоріше за все, працює мікс алгоритмів і логічних правил»
Який висновок можна зробити з усіх цих історій і прикладів про роботу алгоритмів Facebook? Офіційних пояснень не отримали, тому ми попросили поділитися своїми міркуваннями аналітикиню даних Надію Романенко, яка донедавна очолювала проєкт з моніторингу дезінформації на Texty.org.ua.
П’ять років тому Надія разом із колегами створила інтерактивний проєкт «Тролесфера»: ТЕКСТИ вирахували мережу з близько двох тисяч фейсбук-користувачів, тісно пов’язану із групами бойовика «ДНР» Степана Мазури, які, прикриваючись патріотичними слоганами, поширювали заклики до перевороту та протестів.
— Я не можу дати точну відповідь, як працюють алгоритми Facebook адже не маю доступу до його внутрішньої кухні, — каже Надія. — У таких випадках, як цей, зрозуміло, що непрозорі алгоритми — це проблема. Подальші роздуми базуються на доступних коментарях про блокування та на власному досвіді розробки машинного навчання.
Устина Стефанчук згадує про минулі попередження, а з коментаря спікерки Facebook можна зробити висновок, що рішення про блокування приймає людина. Думаю, алгоритми точно задіяні для фільтрування підозрілих випадків, які надходять на розгляд людям-модераторам. Як вони працюють — загадка і комерційна таємниця.
Рішення алгоритму направити допис на розгляд модератора і рекомендована дія точно є результатом багатьох факторів: і змісту допису, і «репутації» користувача.
Ці чинники можуть сплітатися в рекомендовану дію або за допомогою правил (наприклад, якщо алгоритм виявлення мови ненависті видає високий рівень небезпеки і користувач має стільки-то попереджень — рекомендувати видалення акаунта), або через алгоритм машинного навчання, який самостійно знаходить закономірність у факторах і діях модераторів.
Найпевніше, присутній мікс алгоритмів прийняття рішення, які писали живі розробники, і логічних правил, якими користуються аналітики, котрі приймають рішення про блокування.
Отже, на етапі алгоритму могла помилитися якась з численних моделей оцінки прийнятності повідомлення, модель прийняття рішення, або якесь із правил «якщо-то». Моделі машинного навчання помиляються здебільшого через неякісні тренувальні дані. Припустимо, що інженери ФБ знайшли дані текстових повідомлень із маркуванням «мова ворожнечі / звичайне повідомлення».
Більшість дописів могли бути не про Україну, а про США – набори даних для машинного навчання зазвичай мають зсув у бік розвинених західних країн. У цьому наборі даних могло бути кілька повідомлень про Україну, і вони могли бути помічені як гейт. При навчанні модель цілком могла побудувати закономірність «Україна + Росія + війна + вбивства = маркуй як ненависть».
Висвітлення негативної теми і мова ненависті – майже однакові для моделей на ключових словах, але моделі, які оцінюють послідовності слів, здатні відстежити різницю. Проте, якщо така модель працює з кількома мовами і для дуже різних контекстів, вона може показувати чудові результати на поширених мовах і темах, але помилятися у малознайомих випадках.
Отже, модель помилилася. Для таких випадків у Facebook є модератор, який мав би це помітити і виправити.
Але модератор міг бути втомлений та не задоволений зарплатою, а тому просто погоджувався з моделлю, міг читати на дозвіллі Russia Today, міг бути росіянином (сподіваюся, мене не заблокують за це), міг теж помилитися.
Хто винен? Непрозорість Facebook та небажання компанії реагувати на помилки, які менші за повний провал.
Хочете отримувати новини в месенджер? Підписуйтеся на наш ТЕЛЕГРАМ-КАНАЛ чи долучайтесь до нашої групи у Вайбері Ми є також в Instagram , у facebook та whatsapp