Пентагон планирует использовать ИИ для распознавания нарушений «социальных норм»
Новая статья двух исследователей из Университета Бен-Гуриона, Израиль, объяснила, как можно использовать модели искусственного интеллекта (ИИ) для анализа «нарушений социальных норм». Так, ученые использовали GPT-3 (модель ИИ от компании OpenAI, которая может автоматизировать создание и анализ контента), а также специальный метод анализа данных для выявления широких категорий «нарушений» в текстовых сообщениях.
Будущее с искусственным интеллектом
- «В то время как социальные нормы и их нарушения интенсивно изучаются в психологии и социальных науках, автоматическое определение социальных норм и их нарушение является открытой проблемой, которая может быть очень важна для нескольких проектов... Это открытая проблема, потому что сначала мы должны определить особенности/сигналы/переменные, указывающие на то, что социальная норма была нарушена... Однако "обучение" машины/компьютера тому, какое поведение является нарушением нормы — не простой процесс», — объясняют ученые.
Также отмечается, что сложность новой инициативы заключается в том, что нормы различаются в зависимости от того, кто вы и откуда вы. Однако исследователи утверждают, что, хотя ценности и обычаи различных культур могут отличаться, реакция человека на разрыв с ними может быть довольно последовательной.
- «Социальные нормы могут быть культурно специфичными и охватывать многочисленные неформальные "правила", то, как люди реагируют на нарушение норм с помощью эволюционных социальных эмоций, может давать нам подсказки для автоматического выявления нарушения», — пишут ученые из из Университета Бен-Гуриона.
ИИ на страже закона?
Исследователи в конечном итоге пришли к выводу, что «конструктивная стратегия выявления нарушений социальных норм заключается в том, чтобы сосредоточиться на ограниченном наборе социальных эмоций, сигнализирующих о нарушении», — а именно на вине и стыде.
- Так, ученые использовали ИИ, чтобы понять, когда человек может чувствовать себя плохо из-за того, что он сделал. Для этого создали специальную базу «синтетических данных» с помощью ИИ ChatGPT-3, а затем использовали «нулевую классификацию текста» для обучения модели «автоматически идентифицировать социальные эмоции». Сообщается, что модель анализа может быть развернута для автоматического сканирования текстовых историй на наличие признаков неправильного поведения.
Западные журналисти отмечают: тревожно, что подобное исследование профинансировано Агентством перспективных оборонных исследовательских проектов Пентагона (DARPA). Созданная в 1958 году, DARPA находится на передовой военных исследований и разработок США, часто помогая создавать некоторые из самых важных технологических инноваций нашего времени (беспилотные летательные аппараты, вакцины, интернет и многое другое).