1 028 3 хв Катерина Світляковська

Обережно, небезпечно: голосовий режим ChatGPT може нашкодити людині

Сам штучний інтелект це заперечує.

Обережно, небезпечно: голосовий режим ChatGPT може нашкодити людині

Розробники попередили про загрози голосового режиму ChatGPT / Джерело: Freepik

Розробники ChatGPT заявили користувачам, що голосовий режим чат-бота може бути небезпечним для людини. На їхню думку, існує високий ризик емоційної прив’язки до голосового режиму. Крім того, існує ще кілька загроз для користувачів. До речі, раніше Люкс розповідав, яка існує ймовірність знищення людства штучним інтелектом, на думку Ілона Маска.

За словами розробників, ШІ з голосовим режимом може вийти з-під контролю, а також небезпечним є той факт, що ШІ навчився копіювати голоси. Це, на думку спеціалістів, може бути використано проти людей. Але найголовнішою проблемою наразі розробники називають можливість людини прив'язатися до чат-бота, який має антропоморфний голос. Зазначається, що цей факт може призвести до того, що люди почнуть більше довіряти відповідями штучного інтелекту, який вже навіть навчився брехати співрозмовнику. OpenAI зазначає, що з часом це навіть може вплинути на стосунки користувачів з іншими людьми.

Користувачі можуть формувати соціальні відносини з ШІ, знижуючи свою потребу в людській взаємодії, що може бути корисним для самотніх людей, але можливо, негативно впливатиме на здорові стосунки, – йдеться в заяві OpenAI.

Реклама
Чи є загроза від голосового режиму ШІ / Freepik

Однак сам ChatGPT каже, що голосовий режим не може нашкодити людині, проте попередив про етичне використання штучного інтелекту.

Важливо використовувати такі технології відповідально, особливо в ситуаціях, де потрібна точність і безпека. Як і з будь-яким іншим технологічним інструментом, важливо дотримуватися етичних норм і не використовувати його для шкідливих цілей, – розповів чат-бот.

Нагадаємо, раніше Люкс розповідав про те, як штучний інтелект навчили розпізнавати політичні вподобання людини лише за її обличчям.

LifestyleШтучний інтелектТехноПоділитись:
Новини партнерів