Более 2600 технологических лидеров и исследователей подписали открытое письмо с призывом взять временную «паузу» в дальнейшем развитии искусственного интеллекта (ИИ), опасаясь «глубоких рисков для общества и человечества». Freebitco.in — самый выгодный крипто-кран 2023 года.
Генеральный директор Tesla Элон Маск, соучредитель Apple Стив Возняк и целый ряд руководителей, технических директоров и исследователей в области ИИ вошли в число подписавших письмо, автором которого 22 марта стал американский аналитический центр Future of Life Institute (FOLI).
Институт призвал все компании ИИ «немедленно приостановить» обучение систем ИИ, более мощных, чем GPT-4, по крайней мере, на шесть месяцев, разделяя, среди прочего, опасения, что «конкурентный интеллект человека может представлять глубокую опасность для общества и человечества»:
Мы призываем лаборатории ИИ временно приостановить обучение мощных моделей!
Присоединяйтесь к призыву FLI вместе с Yoshua Bengio, @stevewoz, @harari_yuval, @elonmusk, @GaryMarcus и более 1000 других, кто подписал: https://t.co/3rJBjDXapc.
Коротко о том, почему мы призываем к этому — (1/8)
— Институт будущего жизни (@FLIxrisk) 29 марта 2023 г.
«Передовой ИИ может стать глубоким изменением в истории жизни на Земле, и его следует планировать и управлять им с соответствующим вниманием и ресурсами. К сожалению, такого уровня планирования и управления не происходит», — говорится в письме института.
GPT-4 — это последняя итерация чатбота OpenAI, работающего на основе искусственного интеллекта, который был выпущен 14 марта. На сегодняшний день он сдал несколько самых сложных американских экзаменов для старшеклассников и юристов на уровне 90-го процентиля. Считается, что он в 10 раз более совершенен, чем первоначальная версия ChatGPT.
Существует «неконтролируемая гонка» между фирмами по разработке более мощных ИИ, которые «никто — даже их создатели — не может понять, предсказать или надежно контролировать», утверждает FOLI.
СРОЧНО: Появилась петиция, призывающая приостановить все крупные разработки в области ИИ.
Например, больше никаких модернизаций ChatGPT и многих других.
Петицию подписали Элон Маск, Стив Возняк, генеральный директор Stability AI и 1000 других лидеров технологий.
Вот что получилось: pic.twitter.com/jR4Z3sNdDw
— Лоренцо Грин 〰️ (@mrgreen) 29 марта 2023 г.
Среди главных опасений были следующие: могут ли машины наводнить информационные каналы, потенциально «пропагандой и неправдой», и «лишат ли машины всех возможностей трудоустройства».
FOLI продвинул эти опасения на шаг вперед, предположив, что предпринимательские усилия этих ИИ-компаний могут привести к экзистенциальной угрозе:
«Должны ли мы развивать нечеловеческие разумы, которые в конечном итоге могут превзойти, превзойти, устареть и заменить нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией?».
«Такие решения не должны быть делегированы неизбираемым техническим лидерам», — добавляется в письме.
Сегодня у меня немного экзистенциальный страх перед ИИ.
— Элон Маск (@elonmusk) 26 февраля 2023 г.
Институт также согласился с недавним заявлением основателя OpenAI Сэма Альтмана о том, что перед обучением будущих систем ИИ может потребоваться независимая экспертиза.
Альтман в своем блоге от 24 февраля подчеркнул необходимость подготовки к созданию искусственного общего интеллекта (AGI) и искусственного сверхинтеллекта (ASI) роботов.
Однако не все эксперты в области ИИ поспешили подписать петицию. Бен Гертцель, генеральный директор SingularityNET, 29 марта в своем Твиттере объяснил Гэри Маркусу, автору книги Rebooting.AI, что модели изучения языка (LLM) не станут AGI, разработок которых до сих пор было немного.
В целом, человеческому обществу будет лучше с GPT-5, чем с GPT-4 — лучше иметь рядом немного более умные модели. ИИ, занимающие человеческие рабочие места, в конечном счете, это хорошо. Галлюцинаций и банальностей станет меньше, и люди научатся работать с ними.
— Бен Гертцель (@bengoertzel) 29 марта 2023 г.
Вместо этого, по его словам, следует замедлить исследования и разработки для таких вещей, как биооружие и ядерное оружие:
Помимо моделей изучения языка, таких как ChatGPT, технология глубокого подлога на базе ИИ использовалась для создания убедительных изображений, аудио- и видеомистификаций. Технология также использовалась для создания произведений искусства, сгенерированных ИИ, что вызывает некоторые опасения по поводу того, не нарушает ли она в определенных случаях законы об авторском праве.
Генеральный директор Galaxy Digital Майк Новограц недавно заявил инвесторам, что он шокирован тем, сколько внимания регуляторы уделяют криптовалютам, в то время как искусственному интеллекту уделяется мало внимания.
«Когда я думаю об искусственном интеллекте, меня шокирует, что мы так много говорим о регулировании криптовалют и ничего не говорим о регулировании искусственного интеллекта. Я имею в виду, что, по-моему, правительство поставило все с ног на голову», — высказал он свое мнение во время телефонного разговора с акционерами 28 марта.
FOLI утверждает, что если пауза в развитии ИИ не будет введена быстро, правительствам следует ввести мораторий.
«Эта пауза должна быть публичной и поддающейся проверке, и в ней должны участвовать все ключевые участники. Если такая пауза не может быть введена быстро, правительства должны вмешаться и ввести мораторий», — пишет компания.