20 3 хв Юлия Бражник

Что и следовало ожидать: искусственный интеллект научился сознательно лгать собеседнику

Умника специально никто не учил говорить неправду и притворяться человеком.

Что и следовало ожидать: искусственный интеллект научился сознательно лгать собеседнику

Искусственный интеллект научился врать / Источник: Freepik

Только недавно ученые научили искусственный интеллект распознавать сарказм человека и опасались, что он начнет так же отвечать с сарказмом, как вот уже появилась очередная новость. Оказывается, искусственный интеллект научился сознательно врать собеседнику. Ученые говорят, что специально его этому не учили.

Видео дня

Исследователи из Массачусетского технологического института (США) рассказали, что ИИ учится на огромном количестве текстов, которые не всегда содержат правдивую информацию. Поэтому ИИ может иногда выдавать человеку эту информацию, искренне считая, что говорит правду. Но последнее исследование показало, что нейросеть может вводить в заблуждение своего собеседника сознательно.

Ученые проанализировали поведение больших речевых моделей (таких, как GPT-4) и моделей, которые обучены выполнять более специфические задачи, например, прохождение видеоигр или торги на рынке. В одном из случаев нейросеть GPT-4 смогла обмануть человека, заставив его пройти за него стандартную проверку "Докажи, что ты не робот".

Искусственный интеллект обманывает людей/ Patterns

По словам авторов исследования, склонность к обману выше у более современных и сложных нейросетей. По мнению ученых, эти нейросети умеют лучше находить эффективные стратегии поведения, которые чаще используют ложь и притворство. И хотя исследователи говорят, что еще рано говорить о том, что ИИ действительно намеренно обманывает людей, однако призвали производителей обратить на это внимание. Похоже, что разработчикам теперь нужно создавать детектор лжи, который будет выявлять не только сарказм ИИ, но и то, насколько искренний он с человеком.

Реклама

Ранее Люкс рассказывал о том, как ученые научили нейросеть распознавать дипфейки.

LifestyleПубликацииТехноПоделиться:

Новости партнеров

Реклама