Група дослідників та вчених, які допомагали створювати штучний інтелект, попереджають, що країни повинні створити глобальну систему нагляду для перевірки потенційно серйозних ризиків, які несе в собі ця технологія, що швидко розвивається. Випуск ChatGPT і низки подібних сервісів, які можуть створювати текст і зображення за командою, показав, наскільки потужно розвивається штучний інтелект. Перегони за комерціалізацією технології швидко привели її з периферії науки до смартфонів, автомобілів і класів, а уряди від Вашингтона до Пекіна були змушені з'ясовувати, як регулювати і використовувати її. У своїй заяві в понеділок група впливових вчених у галузі ШІ висловила занепокоєння тим, що технологія, яку вони допомагали створювати, може завдати серйозної шкоди. Вони попередили, що технологія ШІ може за лічені роки перевершити можливості своїх творців і що «втрата людського контролю або зловмисне використання цих систем ШІ може призвести до катастрофічних наслідків для всього людства».
Якби системи штучного інтелекту в будь-якій точці світу розвинули ці здібності сьогодні, не існує жодного плану, як їх приборкати, каже Джилліан Хедфілд, дослідниця права і професор комп'ютерних наук та державного управління в Університеті Джона Хопкінса. «Якщо через півроку у нас станеться якась катастрофа, якщо ми виявимо, що існують моделі, які починають автономно самовдосконалюватися, кому ви будете скаржитися?» сказав доктор Хедфілд.
5-8 вересня доктор Хедфілд приєдналася до вчених з усього світу у Венеції, щоб обговорити такий план. Це була третя зустріч Міжнародних діалогів з безпеки ШІ, організована Форумом безпечного ШІ, проектом некомерційної дослідницької групи в США під назвою Far.AI. Уряди повинні знати, що відбувається в дослідницьких лабораторіях і компаніях, які працюють над системами штучного інтелекту в їхніх країнах, - йдеться в заяві групи. І їм потрібен спосіб інформування про потенційні ризики, який не вимагав би від компаній або дослідників ділитися комерційною інформацією з конкурентами. Група запропонувала країнам створити органи з безпеки ШІ для реєстрації систем ШІ в межах своїх кордонів. Потім ці органи працюватимуть разом, щоб узгодити набір червоних ліній і попереджувальних знаків, наприклад, якщо система ШІ може копіювати саму себе або навмисно обманювати своїх творців. Все це буде координуватися міжнародним органом.
Серед підписантів був Йошуа Бенгіо, один з засновників цієї галузі, а також Ендрю Яо, чий курс в Університеті Цінхуа в Пекіні викарбував засновників багатьох провідних китайських технологічних компаній. Крім того, був і Джеффрі Хінтон, вчений-новатор, який провів десять років у Google, брав участь дистанційно. Всі троє є лауреатами Премії Тюрінга, еквівалента Нобелівської премії з інформатики. До групи також увійшли вчені з кількох провідних китайських дослідницьких інститутів ШІ, деякі з яких фінансуються державою і консультують уряд.