5 случаев, когда за искусственный интеллект выдавали реальных людей
2023 год может стать знаменательным годом для ИИ: новые стартапы спешат представить свои системы генеративного искусственного интеллекта, а старые компании, такие как Google, вероятно, будут передавать все больше и больше ответственности своим автоматизированным системам. Эта волна популярности говорит о том, насколько важно оглянуться назад и посмотреть на многих людей, работающих за кулисами, которые смогли сделать магию ИИ реальностью.
За свою 25-летнюю историю Google накопил состояние и завоевал значительную часть интернета, в немалой степени благодаря людям, которые тестируют и контролируют многочисленные алгоритмы поиска и ранжирования. Этих сотрудников сама компания называет «призрачными работниками».
В начале февраля десятки таких оценщиков обратились в компанию с петицией, утверждая, что они получают нищенскую зарплату, несмотря на то, что помогали создавать некоторые из самых прибыльных продуктов Google. В петиции оценщики утверждали, что они и их коллеги, которые работают исключительно в Google, не получали медицинского обслуживания, отпуска по семейным обстоятельствам или оплачиваемого отпуска.
ChatGPT
Самая современная нейросеть на сегодня, генерирующая компьютерный код и отвечающая на совершенно разные вопросы, была обучена силами кенийских рабочих, которым платили по 2 доллара в час. Работники, обучающие ИИ, сказали, что они регулярно отсматривали текст с яркими описаниями пыток, самоубийств, инцеста и сексуального насилия над детьми, и все это для того, чтобы сделать ChatGPT приемлемым для общественности. Один из рабочих сказал Time, что они страдали от навязчивых, повторяющихся видений после прочтения описаний мерзких действий.
Amazon Mechanical Turk
Гендиректор Amazon Джефф Безос пошел другим путем. Mechanical Turk — это не искусственный интеллект, а настоящая армия людей, скрывающаяся за продвинутым интерфейсом. Эти люди выполняют простые задачи, с которыми не могут справиться нейросети, на заказ. Удручает то, что в большинстве случаев такая работа плохо оплачивается и нужна для того, чтобы обучить искусственный интеллект.
TikTok
Возможно, у TikTok не такая плохая репутация из-за размещение противоречивого контента, как у некоторых других социальных сетей, однако его относительно безупречно чистый внешний вид по-прежнему возможен благодаря людям-рецензентам, выступающим в качестве цифровых цензоров. Платформа для обмена видео известна своим уникальным мощным алгоритмом рекомендаций ИИ, но именно низкооплачиваемые работники, контролирующие платформу, гарантируют, что она действительно остается безопасной для большинства зрителей.
YouTube
YouTube также нанимает армаду контрактников для работы вместе со своими системами обнаружения ИИ, чтобы не допустить токсичность и нарушение правил своей платформы. Бывшие модераторы, некоторые из которых подали иски против компании, утверждают, что они должны были просматривать от 100 до 300 фрагментов контента в день с ожидаемой частотой ошибок от 2% до 5%. Видеоролики содержат ужасный онлайн-контент и, как сообщается, включают видео о нанесении увечий животным, изнасиловании детей и убийствах. Бывшие модераторы говорят, что не были готовы к тому, чтобы справиться с эффектом от этой работы. В некоторых случаях, по словам бывшего модератора YouTube, подрядчикам приходилось самим оплачивать медицинское лечение, чтобы справиться с травмой, вызванной работой.
Несмотря на свою продвинутость, нейросетям все еще нужен человек, который подскажет, какой контент безопасен, а какой — нет.