Как искусственный интеллект может ограничить будущее человека
Мы наблюдаем, как сегодня «интеллект» переопределяется как набор задач, которые может выполнять искусственный интеллект. Снова и снова генеративный ИИ противопоставляется человеку, при этом текстовые и визуальные результаты сравниваются с человеческими способностями, стандартами и образцами. ИИ просят имитировать, а затем и улучшать результаты человека на экзаменах по юриспруденции, на вступительных экзаменах в аспирантуру, на экзаменах для повышения квалификации и т. д. Даже если от этих тестов уже отказываются, потому что они неадекватны задаче реального измерения человеческих способностей.
Когда говорят о прогрессе ИИ, часто забывают о лежащей в его основе логике, требующей, чтобы все было переведено в термины технологии. Если не заняться этой проблемой сегодня, эта логика будет и дальше сужать обзор, препятствовать человеческим устремлениям и исключать возможное будущее, обрекая нас повторять пройденное, а не учиться на прошлых ошибках.
Проблема имеет глубокие корни. По мере развития ИИ в 1950-х и 60-х годах исследователи часто сравнивали людей и компьютеры. Некоторые предполагали, что компьютеры станут «наставниками» и «коллегами», другие думали о машинах, как о «помощниках» или «слугах».
Как показали ученые Неда Атанасоски, Калинди Вора и Рон Иглаш в своей работе «Суррогатная человечность», эти сравнения сформировали восприятие ценности не только ИИ, но и человеческого труда. Те, кто относил ИИ к категории «слуг», обычно делали это потому, что считали, что машины будут ограничиваться черной, повторяющейся и бессмысленной работой (или DDD — dull, dirty and dangerous — скучно, грязно и опасно). С другой стороны, те, кто прославлял потенциальных наставников и коллег, молчаливо предполагали, что человеческие аналоги могут быть лишены всего, кроме способности правильно и эффективно рассуждать и действовать.
История искусственного интеллекта
Вся история ИИ обычно представляется как процесс, при котором совокупность алгоритмов достигает человеческого общего интеллекта (AGI) и творческих способностей. И затем человека превосходит.
Опыты OpenAI сравнения ИИ со стандартизированными экзаменами подтверждают позитивистское, состязательное и бюрократическое понимание человеческого интеллекта и его потенциала. Точно так же «кейс-интервью» и произведения искусства, созданные ИИ, представляют подражание как интеллект.
Чтобы результат генеративного ИИ был подтвержден как истинный (или выглядел как «истинный»), он должен быть правдоподобным, то есть узнаваемым с точки зрения прошлых ценностей и опыта. Но взгляд назад и сглаживание неожиданных прорывов (а ведь именно так происходят открытия) фактически делает человеческое будущее полностью предсказуемым и сводит его к повторению прошлого.
Такая практика в конечном итоге влияет на то, кто и что считается разумным, и, если она глубоко укоренится, это изменит общество, политику и власть. Например, в «этике ИИ» такие сложные понятия, как «справедливость» и «равенство», переопределяются как математические ограничения на прогнозы, совмещенные с базовой логикой машинного обучения. Но вряд ли эти сложные понятия к этому действительно сводятся.
Другой пример: развитие систем машинного обучения для игр привело к упрощенному переопределению понятия «игра» как простого совершения допустимых ходов в поисках победы. Любой, кто играл в го, шахматы или покер против другого человека, знает, что для людей «игра» включает в себя гораздо большее и в конечном счете не сводится исключительно к стремлению к победе.
Существующее представление ИИ сужает горизонт человеческого интеллекта до задач, которые можно решить с помощью распознавания образов, прогнозирования на основе данных и тому подобного. Это может установить ограничения для человеческих идеалов, таких как стремление к истине, творчество, воображение и демократия, что приведет к бедному и ограниченному человеческому будущему, предупреждают ученые.