1 июля Первый канал российского телевидения показал сюжет о том, как Google учится сам формировать политическую повестку с прицелом на новые выборы в США. Видео здесь, текст ниже.
А сегодня испанская Эль Паис в статье «Так мы падаем по токсичной спирали Ютуба» (Así caemos por la espiral tóxica de YouTube) жалуется на второй в мире по популярности поисковик североамериканского видеосервиса, принадлежащий по подчинённости той же группе, что и Google. В частности, в статье говорится, что редакция провела исследование подобного растущему снежному кому алгоритма поиска и пришла к выводу, что рекомендации поисковика «следующие видео» по результатам попыток обнаружить нужную информацию в Ютубе приводят к «чёрным дырам» где говорится, что рак лечится пищевой содой, а детская вакцинация смертельно опасна.
Испанское издание утверждает, что алгоритм рекомендаций Ютуба опасен как информационно, так и политически.
Возвращаясь к Гуглю:
Развитие истории, которую Первый канал начал полторы недели назад, рассказав о совершенно новой технологии производства фейков в интернете, когда каждый, располагая одной фотографией человека, может сделать видеоролик с его участием. В Америке это уже используют в политической борьбе — с прицелом на новые президентские выборы. Как и то, какую именно информацию выдает пользователям глобальный поисковик Google.
Представьте, вы где-то прочитали или услышали, что Белый дом в Вашингтоне решили перекрасить в розовый цвет. Как проверить, правда ли это? Конечно же, многие первым делом попробуют «погуглить».
Но что если поисковику, которым пользуются по любым поводам и во всем мире, больше нельзя верить? Этот вопрос ставит в своем расследовании американский журналист Джеймс О’Киф. Его 30-минутный репортаж рассказывает о том, как Google вводит пользователей в заблуждение с помощью искусственного интеллекта.
«Они намерены стать цензорами, посредниками между пользователями и информацией, которую пользователи хотят получить. Они намерены фильтровать контент, ограничивать доступ к той информации, которую считают нежелательной для пользователей», — говорит мужчина.
Этот человек утверждает, что работает в компании Google и потому скрывает свое лицо и изменил голос. По словам информатора, технический гигант разработал специальные алгоритмы, чтобы фильтровать новости и генерировать определенную повестку накануне новых президентских выборов в США. По сути, речь идет о глобальной цензуре в интернете.
«Google решает, что важно, а что нет. Они просто удаляют некоторые темы, обсуждающиеся в обществе. Это не объективный источник информации, это очень предвзятая политическая машина, которая работает на то, чтобы не позволить кому-то вроде Дональда Трампа снова выиграть выборы», — продолжает аноним.
Причем слова анонима подкреплены секретными документами о внутренней политике компании, которые утекли в прессу. А еще — записанным на скрытую камеру разговором журналиста с главой отдела инноваций Google Джен Дженнай.
«С 2016 года мы работаем над тем, чтобы подойти во всеоружии к 2020 году. Мы тестируем алгоритмы, чтобы понять, если бы 2016 год случился снова, мог бы его итог быть другим?» — рассказывает Дженнай.
Очевидно, имеются в виду прошлые президентские выборы, на которых победил Трамп, и следующие, в 2020 году. Более того, чтобы продемонстрировать политическую предвзятость Google, таинственный собеседник журналиста рассказывает о некоторых тактиках, которые применяет его работодатель.
Так, в разгар прошлой президентской гонки разразился скандал вокруг электронной почты Хиллари Клинтон. Бывшая госсекретарь использовала личный электронный ящик для служебной переписки, что запрещено американским законом. В ФБР начали расследование. Как считает сама Клинтон в своих мемуарах, этот скандал стоил ей президентского кресла.
Историю с перепиской Клинтон долго обсуждали в США и после выборов. Но сейчас если на английском в американском поисковике вбить запрос об e-mail Хиллари Клинтон, то мы видим, что Google не выдает никакой истории поиска, как будто этой темой никто не интересовался. Хотя этого просто не может быть!
«Согласно концепции Google, скандал с e-mail Хиллари Клинтон — это конспирологическая теория. И неправильно ее ассоциировать с электронной почтой Клинтон. Через свою программу они удалили соответствующие запросы, как будто их и не существовало», — рассказывает аноним.
При том что по запросу «идиот» Google в первую очередь выдает портрет Дональда Трампа. После того как расследование О’Кифа начали тиражировать американские газеты — YouTube, который принадлежит Google, удалил репортаж. Одна из героинь разоблачения — та самая, которую записали на скрытую камеру — теперь утверждает, что ее неправильно поняли.
«К сожалению, теперь я знаю, что мои собеседники солгали о том, кем они являются, снимали меня без моего согласия, выборочно отредактировали и склеили видео, чтобы исказить мои слова и действия моего работодателя», — сообщила Джен Дженнай.
Скандал дошел и до Конгресса. На слушаниях о политике интернет-платформ сенаторы пытались задавать вопросы представителям Google. Однако те уходили от ответов.
«В расследовании, кроме всего прочего, утверждается, что если кто-то ищет консервативных комментаторов, Google вместо них рекомендует такие СМИ как CNN, CNBC и другие левые политизированные медиа. Это правда?» — задал вопрос сенатор Тед Круз.
«Я не могу комментировать алгоритмы поиска, я могу лишь переадресовать ваш вопрос другим работникам», — сказала представитель Google Mэгги Стэнфилл.
На сайте, где опубликовано расследование о политике Google, уже больше тысячи гневных отзывов:
— Все это пугает. Как будто Роман Оруэлла «1984» в реальности. Могущественный технический гигант хочет контролировать тебя, влиять на твой выбор. Мы потратили два с половиной года, расследуя некое российское вмешательство в наши выборы, но оказывается, что реальная угроза здесь, на нашей земле.
— Гугл — враг свободы!
— Вот где сговор: продвигаются интересы лишь одной партии. Демократов, конечно.
Сторонники Дональда Трампа уже давно жалуются на предвзятость онлайн-платформ. Facebook и Twitter, например, без всякого объяснения блокируют учетные записи консервативных республиканцев и скрывают их посты.
А свежая история в The New York Times вообще из разряда «хоть плачь, хоть смейся». Популярный сайт для любительниц вязания запретил своим пользовательницам на форумах положительно высказываться в адрес Белого дома. Иначе угрожает заблокировать доступ. По мнению администраторов ресурса, поддерживать Трампа — все равно что поощрять в обществе нетерпимость.
El algoritmo que nos recomienda lo que ver insiste en que sepamos que la NASA miente
A este fenómeno los anglosajones lo denominan rabbit hole (madriguera de conejo), en referencia a la caída que llevó a Alicia a ese país de maravillas y pesadillas. Esta caída se produce en YouTube en todos los temas cercanos a la ciencia. Preguntar por el 50 aniversario de la llegada a la Luna o por el agua en Marte lleva una y otra vez a este agujero. El algoritmo que nos recomienda lo que ver en el portal de vídeos de Google insiste en que sepamos que la NASA miente, que los extraterrestres ya están entre nosotros o que Nostradamus fue un gran profeta.
En cuestiones de salud, la caída es más brusca si cabe: desde el comienzo la mayoría de las recomendaciones son peligrosa pseudociencia. Como denunciaron las autoridades catalanas hace un año, buscar «cura cáncer» sugiere toda clase de curanderos y canales que aseguran que el remedio es tan sencillo como tomar bicarbonato. Las falsedades sobre los peligros de vacunar a los bebés nos asaltan tras ver el primer vídeo recomendado, que es legítimo, sobre vacunas.
YouTube es la segunda página web más visitada del mundo, tiene 1.900 millones de usuarios registrados que lo visitan cada mes y ven más de 1.000 millones de horas de vídeo. Su buscador es el segundo más usado detrás de Google, que pertenece al mismo grupo que YouTube. Las recomendaciones de Youtube tienen una enorme capacidad de influencia. Su preferencia por una mezcla de argumentos bizarros, visiones extremas y bulos junto a vídeos más convencionales tiene consecuencias. Esas recomendaciones aparecen en la página principal de YouTube de cada usuario y en la columna de vídeos que propone como “siguiente” al acabar de ver cada uno. El algoritmo que gestiona estas sugerencias es responsable de la mayor parte del tiempo que los usuarios pasan en la plataforma.
Si Facebook es el lugar donde se encuentra gente con gustos peculiares que antes de internet no se conocían, YouTube es su gran altavoz. Cuando un usuario ve un vídeo, la plataforma recomienda siempre un vídeo “siguiente”. El espectador no debe tomar ninguna decisión. Ese es el camino que lleva a agujeros negros de distinta profundidad. El descenso requiere pocos esfuerzos de espeleología digital: solo hay que dejarse llevar por lo que el mecanismo de YouTube cree que le mantendrá en la plataforma durante más minutos.
El descenso requiere pocos esfuerzos de espeleología digital: solo hay que dejarse llevar
En EL PAÍS hemos hecho ese descenso experimental con dos docenas de búsquedas vinculadas a temas sociales y políticos en español: cáncer, vacunas, denuncias falsas, tierra plana, política, pucherazo, Pedro Sánchez, Zapatero Venezuela, políticos corruptos en España, referéndum catalán, sentencia la manada, pensiones en España, crisis económica 2019, paro en España, inmigración España, privilegios inmigrantes, cambio climático, cómo ligar, aniversario luna, vacunas, agua en Marte. Hemos abierto una sesión privada en el navegador para que nuestro historial no influyera en las decisiones del algoritmo, hemos escrito la palabra o expresión clave del tema en la barra de búsqueda de YouTube y hemos clicado en una de las primeras opciones que ofrecía. De ahí seguíamos simplemente los vídeos que YouTube ofrecía como siguiente: estábamos en manos del algoritmo.
YouTube apenas revela detalles sobre cómo funciona su algoritmo de recomendación. “Nuestros sistemas reflejan el interés del usuario y optimizan para una satisfacción a largo plazo”, dice la compañía. Como sabe quien mira lo más leído en un periódico digital, el “interés del usuario” es voluble y básico. YouTube retoca constantemente su algoritmo. Desde hace unos años confía más en los minutos que se ven de un vídeo y los likes para evitar titulares virales o fotogramas llamativos.
Cada día YouTube recomienda 200 millones de vídeos solo en su página de entrada. Su escala es inconmensurable. El 26% de los españoles dice usar YouTube para informarse, según el último informe del Instituto Reuters de la Universidad de Oxford.
Cada día YouTube recomienda 200 millones de vídeos solo en su página de entrada. Su escala es inconmensurable.
En inglés las recomendaciones políticas son tan radicales como las pseudocientíficas. Desde un discurso oficial de un político es fácil llegar a canales de contenido racista o supremacista y es por donde YouTube ha empezado a trabajar, incluso cerrando canales.
Muchos de estos experimentos en español no llevan necesariamente a estos agujeros y, en muchos casos, parece que el algoritmo se resiste a llevarnos por derroteros demasiado tóxicos en cuestiones políticas. Hace unos pocos meses no era así. Por ejemplo, una búsqueda sobre «la manada» a finales de 2018 ofrecía desde los primeros resultados una mayoría de vídeos de carácter machista y muy ofensivos hacia la víctima de la violación y el colectivo feminista. Además, deslizaban todo tipo de interpretaciones basadas en conspiraciones. Ahora, estos mismos vídeos aparecen recomendados, pero menos, y ya no se ofrecen en una espiral sin fin. No obstante, depende de la formulación: los resultados de «sentencia la manada», «pucherazo electoral» o «privilegios inmigrantes» son mucho más tóxicos que «manada», «elecciones españa 2019» e «inmigración».
Pero ha sido así durante muchos años, como denuncian numerosos especialistas, creando lo que algunos denominan la influencia alternativa. En YouTube se ha creado un universo de realidades paralelas a la ciencia o al consenso político, en el que las conspiraciones son el pensamiento convencional. Así, la amplificación algorítmica de los contenidos más extremos puede llevar a radicalizar a jóvenes o a convencer de que la quimioterapia es lo que mata.
«El algoritmo trabaja como una bola de nieve: puede crecer mucho en ciertas condiciones. Parece que la pseudociencia creció mucho en España y el extremismo más en Estados Unidos. La desinformación anti cambio climático no explotó en Francia, por ejemplo. Pero las cosas pueden cambiar y el extremismo puede también crecer exponencialmente en España”, dice Guillaume Chaslot, ex ingeniero en YouTube y ahora fundador de la web Algotransparency.org. ¿Podría ser que YouTube retocara el algoritmo para evitar que algo crezca en un lugar determinado? No está claro, dice Chaslot, pero “YouTube intenta hacer la menor intervención manual posible”.