Керівники компаній, що займаються дослідженням та розробкою штучного інтелекту, виступили з черговим попередженням про загрози технологій штучного інтелекту. Серед цих компаній – DeepMind, OpenAI і Anthropic – всі вони приєдналися до зростаючого хору лідерів (всього понад 350 керівників та дослідників), що попереджають про те, що «зниження ризику вимирання людства від ШІ має стати глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна». Водночас, як повідомляє Bloomberg News, чимало інших лідерів стверджують, що акцент на гіпотетичних загрозах ШІ лише відволікає увагу від нагальних проблем суспільства. Вони ввважають, що ШІ не настільки розвинений, щоб вже зараз побоюватися про те, що він знищить людство.
Слід зазначити, що ця заява є новим гучним попередженням від лідерів галузі, які закликають звернути увагу на серйозні ризики, які ШІ є для суспільства. У березні понад 1100 лідерів індустрії, включно з Елоном Маском та співзасновником Apple Стівом Возняком, виступили за шестимісячну паузу у навчанні потужних моделей ШІ.
Кілька тижнів тому Джеффрі Хінтон, один з найбільш авторитетних розробників технологій штучного інтелекту та машинного навчання, повідомив про свій вихід з дослідницької групи Google з ШІ і заявив, що компанії надто швидко відкривають можливості ШІ для громадськості.