Ученые: ИИ будет манипулировать людьми в коммерческих или политических целях
Развивающаяся «экономика намерений» использует искусственный
интеллект для прогнозирования и воздействия на выбор людей, превращая
человеческие стремления в коммерческий продукт.
Исследователи из Кембриджского университета предупреждают об
этических рисках, включая возможность манипуляций, и выступают за необходимость
регуляции, чтобы избежать потенциальных злоупотреблений, передает incrussia.ru
Эксперты Кембриджского центра Леверхалма считают, что
быстрое развитие генеративного ИИ и растущая популярность чат-ботов могут
означать начало новой эры «технологий убеждения». Эти изменения согласуются с
недавними стратегическими решениями крупных технологических компаний, указывая
на растущий потенциал этой области. «Антропоморфные» ИИ-агенты, такие как
чат-боты-помощники и цифровые наставники, смогут использовать личные данные,
полученные в ходе общения, чтобы создать уровень доверия и понимания, что может
привести к широкомасштабной манипуляции людьми.
Доктор Якуб Чаудхари из Kембриджского центра Леверхалма
подчеркнул, что на внедрение ИИ-помощников расходуются значительные ресурсы,
что ставит под сомнение их истинные цели и интересы. Он отметил, что данные,
собранные в ходе разговоров, гораздо более личные, чем просто записи
онлайн-общения.
Чаудхари предупредил о том, что уже разрабатываются
инструменты ИИ, способные выявлять, анализировать и манипулировать
человеческими намерениями и планами с целью их коммерциализации.
Доктор Джонни Пенн, историк технологий, добавил, что
внимание пользователей всегда было важной валютой в интернете, а обмен этим
вниманием через социальные сети способствовал росту онлайн-экономики. Он
предупредил, что если экономика человеческих намерений не будет регулироваться,
они могут стать новой валютой, что создаст возможности для манипуляции и
торговли.
Пенн и Чаудхари утверждают, что большие языковые модели
(LLM) могут эффективно использоваться для таргетирования с учетом характеристик
пользователей, таких как политические взгляды и личные предпочтения. Это может
привести к манипуляциям со стороны платформ и рекламодателей с целью достижения
определенных коммерческих или политических целей.
Ранние индикаторы экономики намерений проявляются в
различных инициативах компаний. В блоге OpenAI за 2023 год был сделан призыв к
сбору данных, отражающих человеческие намерения на множестве языков и тем.
Директор по продуктам Shopify также упомянул чат-ботов, способных четко
определять намерения пользователей.
В 2024 году Apple планирует запустить платформу App Intents
для разработчиков, позволяющую подключать приложения к Siri и включающую
протоколы для прогнозирования действий пользователей. Кроме того, ИИ-агенты,
такие как CICERO от Meta* (запрещена на территории РФ и признана
экстремистской), уже демонстрируют уровень игрового мастерства, сопоставимый с
человеческим, в игре «Дипломатия», что предполагает их способность к пониманию
и предсказанию намерений.
«Компании уже монетизируют наше внимание, и следующим шагом станут технологии, позволяющие предсказывать наши желания даже до их осознания», — отмечает Чаудхари. Пенн указывает, что важна общественная осведомленность для предотвращения негативных последствий, таких изменений.
Другое исследование показало, как ИИ, подобно людям, учится
с помощью объяснений, симуляций, аналогий и рассуждений без внешнего
воздействия. Это обучение иллюстрирует сходства и ключевые различия между
естественным и искусственным познанием, предлагая перспективу для изучения
человеческих мыслительных процессов, а также потенциала и ограничений ИИ.
Новости по теме
- Сегодня, 08:29
- Вчера, 09:54
- Вчера, 08:21
- 05.01, 16:44
- 05.01, 15:21
- 04.01, 14:58
- 04.01, 13:40
- 04.01, 12:31
- 03.01, 17:53
- 03.01, 11:35
Комментарии (0) Добавить комментарии
Новости по теме
- Сегодня, 08:29
- Вчера, 09:54
- Вчера, 08:21
- 05.01, 16:44
- 05.01, 15:21
- 04.01, 14:58
- 04.01, 13:40
- 04.01, 12:31
- 03.01, 17:53
- 03.01, 11:35