Лидеры мнений хотят прекратить гонку ИИ
Фото: Freepik

Лидеры мнений хотят прекратить гонку ИИ

29.03.2023

Время прочтения - 2 мин.

Более тысячи известных людей, в том числе Илон Маск, Стив Возняк, Юваль Ной Харари и другие предлагают ввести полугодовой мораторий на обучение чат-ботов, более мощных, чем GPT-4.

В письме, опубликованном от имени некоммерческой организации Future of Life Institute, отмечается, что лаборатории искусственного интеллекта (ИИ) в настоящее время вовлечены в «неконтролируемую гонку» по разработке и внедрению систем машинного обучения, «которые никто — даже их создатели — не может понять, предсказать или надежно контролировать».

«Мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4… Эта пауза должна быть публичной и поддающейся проверке, и в ней должны участвовать все ключевые участники. Если такая пауза не может быть принята быстро, правительства должны вмешаться и ввести мораторий», — говорится в письме.

На момент публикации новости письмо подписали 1 123 человека, в том числе СЕО SpaceX, Tesla & Twitter Илон Маск, сооснователь Apple Стив Возняк, соучредитель Skype Яанн Таллинн и глава Ripple Крис Ларсен.

Среди подписантов оказалось много теоретиков и разработчиков систем ИИ, включая профессора Калифорнийского университета в Беркли, соавтора учебника «Искусственный интеллект: современный подход» Стюарта Рассела, СЕО Stability AI Эмада Мостака, СЕО Scale AI Жюльен Билло, руководителя центра ИИ при Массачусетском технологическом институте Макса Тегмарка, разработчиков из DeepMind, Beneficial AI Research, Synthetic Work, Unanimous AI и других компаний.

В письме отмечается, что системы ИИ, конкурирующие с человеком, становятся все более способными к решению общих задач и могут представлять серьезную опасность для общества и человечества.

Учитывая все эти факторы, решения о развитии таких систем не должны делегироваться «неизбранным» технологическим лидерам, а сами мощные системы ИИ следует разрабатывать только тогда, когда есть уверенность, что эффекты от внедрения будут положительными, а риски — управляемыми.

Источники: Future of Life Institute,The Verge

Подпишись на наш телеграм канал

только самое важное и интересное

Подписаться
Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Читать также

{"type":"article","id":5636,"isAuthenticated":false,"user":null}