19 серпня, 13:47

Вчені з'ясували, чи зможе штучний інтелект коли-небудь самостійно виступити проти людства

Це одне з найголовніших питань, які турбують вчених з розвитком штучного інтелекту.

Джерело: Aclanthology

Науковці з Університету Бат та Технічного університету Дармштадта провели дослідження і з'ясували, що великі мовні моделі (LLM) не здатні самостійно розвивати нові навички. Це робить їх передбачуваними та контрольованими, а це значить, що вони не можуть самостійно повстати проти людства. Хоча раніше Люкс писав про Ілона Маска, який впевнений, що ШІ може знищити людство та навіть назвав відсоток вірогідності цього.

За даними вчених, LLM можуть виконувати лише ті інструкції та задачі, які їм задає людина. Самостійно, за межами свого програмного забезпечення, вони не можуть нічого зробити. Простіше кажуть, ШІ в якийсь момент не перетвориться у надрозумний мозок, який перевершує людський, щоб затіяти щось погане проти людини.

Наша робота є фундаментальним кроком у поясненні продуктивності мовних моделей, надаючи шаблон для їхнього ефективного використання та прояснюючи парадокс їхньої здатності досягати успіху в одних випадках, тоді як в інших вони зазнають невдач. Таким чином, ми демонструємо, що їхні можливості не варто переоцінювати, – йдеться у дослідженні вчених.

Штучний інтелект не може знищити людство самостійно / Freepik

Але, на думку науковців, загроза від ШІ все ж таки існує, а точніше не від самого ШІ, а від дій людей, які можуть мати погані наміри. Зокрема, штучний інтелект вже навчився брехати своєму співрозмовнику, створювати фейкові новини та маніпулювати.