ИИ научился имитировать человеческую близость — и эта иллюзия начала превращаться в уязвимость. То, что еще вчера выглядело как шутка из «Чёрного зеркала», сегодня уверенно проникает в повседневность: миллионы пользователей выстраивают доверительные и даже романтические отношения с цифровыми ассистентами, от Replika и Character ai до GPT-ботов на локальных моделях. Разработчики вкладывают миллионы в создание персонифицированных диалогов, в то время как пользователи уже называют своих ботов “партнёрами”, “возлюбленными”, “самыми близкими собеседниками”.

В этой статье рассмотрим, как работает «влюблённость» в ИИ — с точки зрения нейронауки, архитектур LLM, когнитивных искажений и кибербезопасности. И что IT-сообществу с этим делать.

Читать далее

​Все статьи подряд / Информационная безопасность / Хабр

Read More

Ваша реакция?
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
0 0 голоса
Рейтинг статьи
Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x