Пентагон планирует использовать ИИ для распознавания нарушений «социальных норм»

В США началось финансирование программы, в которой искусственный интеллект будет выявлять, как вина и стыд сигнализируют о «нарушении».
Пентагон планирует использовать ИИ для распознавания нарушений «социальных норм»
Unsplash

Новая статья двух исследователей из Университета Бен-Гуриона, Израиль, объяснила, как можно использовать модели искусственного интеллекта (ИИ) для анализа «нарушений социальных норм». Так, ученые использовали GPT-3 (модель ИИ от компании OpenAI, которая может автоматизировать создание и анализ контента), а также специальный метод анализа данных для выявления широких категорий «нарушений» в текстовых сообщениях.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Unsplash

Будущее с искусственным интеллектом

  • «В то время как социальные нормы и их нарушения интенсивно изучаются в психологии и социальных науках, автоматическое определение социальных норм и их нарушение является открытой проблемой, которая может быть очень важна для нескольких проектов... Это открытая проблема, потому что сначала мы должны определить особенности/сигналы/переменные, указывающие на то, что социальная норма была нарушена... Однако "обучение" машины/компьютера тому, какое поведение является нарушением нормы — не простой процесс», — объясняют ученые.
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Также отмечается, что сложность новой инициативы заключается в том, что нормы различаются в зависимости от того, кто вы и откуда вы. Однако исследователи утверждают, что, хотя ценности и обычаи различных культур могут отличаться, реакция человека на разрыв с ними может быть довольно последовательной.

  • «Социальные нормы могут быть культурно специфичными и охватывать многочисленные неформальные "правила", то, как люди реагируют на нарушение норм с помощью эволюционных социальных эмоций, может давать нам подсказки для автоматического выявления нарушения», — пишут ученые из из Университета Бен-Гуриона.
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Unsplash
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

ИИ на страже закона?

Исследователи в конечном итоге пришли к выводу, что «конструктивная стратегия выявления нарушений социальных норм заключается в том, чтобы сосредоточиться на ограниченном наборе социальных эмоций, сигнализирующих о нарушении», — а именно на вине и стыде.

  • Так, ученые использовали ИИ, чтобы понять, когда человек может чувствовать себя плохо из-за того, что он сделал. Для этого создали специальную базу «синтетических данных» с помощью ИИ ChatGPT-3, а затем использовали «нулевую классификацию текста» для обучения модели «автоматически идентифицировать социальные эмоции». Сообщается, что модель анализа может быть развернута для автоматического сканирования текстовых историй на наличие признаков неправильного поведения.
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Западные журналисти отмечают: тревожно, что подобное исследование профинансировано Агентством перспективных оборонных исследовательских проектов Пентагона (DARPA). Созданная в 1958 году, DARPA находится на передовой военных исследований и разработок США, часто помогая создавать некоторые из самых важных технологических инноваций нашего времени (беспилотные летательные аппараты, вакцины, интернет и многое другое).