При перепечатке материалов просим публиковать ссылку на портал Finversia.ru с указанием гиперссылки.
Илон Маск и группа экспертов по искусственному интеллекту (ИИ) и руководителей отрасли призывают к шестимесячной паузе в разработке систем, более мощных, чем недавно запущенный OpenAI GPT-4. Об этом они заявляют в открытом письме, в котором упоминаются потенциальные риски для общества и человечества.
В письме, выпущенном некоммерческим Институтом будущего жизни и подписанном более чем 1 тыс. человек, включая Илона Маска, содержится призыв приостановить разработку продвинутого ИИ до тех пор, пока не будут разработаны, внедрены и проверены независимыми экспертами общие протоколы безопасности для таких проектов.
«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски управляемыми», — говорится в письме.
В письме подробно описаны потенциальные риски для общества и цивилизации со стороны конкурентоспособных систем искусственного интеллекта в виде экономических и политических потрясений, а также содержится призыв к разработчикам работать с политиками над управлением и регулированием.
В числе соавторов генеральный директор Stability AI Эмад Мостак, исследователи DeepMind, принадлежащей Alphabet, а также тяжеловесы в области искусственного интеллекта Йошуа Бенжио и Стюарт Рассел.
Согласно реестру прозрачности Европейского союза, Институт будущего жизни в основном финансируется фондом Маска, а также лондонской группой эффективного альтруизма Founders Pledge и фондом сообщества Силиконовой долины.
Опасения возникли, когда полиция ЕС Европол присоединилась к хору этических и юридических опасений по поводу передового ИИ, такого как ChatGPT, предупредив о потенциальном неправомерном использовании системы в попытках фишинга, дезинформации и киберпреступности.
Тем временем правительство Великобритании обнародовало предложения по «адаптируемой» нормативно-правовой базе в отношении ИИ.
Подход правительства, изложенный в программном документе, опубликованном в среду, заключается в разделении ответственности за управление искусственным интеллектом (ИИ) между регулирующими органами в области прав человека, здоровья и безопасности и конкуренции, а не в создании нового органа, занимающегося этой технологией.
Маск, чей автопроизводитель Tesla использует искусственный интеллект для системы автопилота, открыто высказывает свое беспокойство по поводу ИИ.
С момента своего выпуска в прошлом году поддерживаемый Microsoft OpenAI ChatGPT побудил конкурентов ускорить разработку аналогичных больших языковых моделей, а компании интегрировать генеративные модели ИИ в свои продукты.
Сэм Альтман, исполнительный директор OpenAI, не подписал письмо, сообщил агентству Рейтер представитель Future of Life. OpenAI не предоставила оперативный ответ на запрос о комментариях.
«Письмо не идеально, но суть верна: нам нужно притормозить, пока мы лучше не поймем последствия», — сказал Гэри Маркус, профессор Нью-Йоркского университета, подписавший письмо. «Они могут причинить серьезный вред… крупные игроки становятся все более скрытными в отношении того, что они делают, что затрудняет защиту общества от любого вреда, который может материализоваться», — пояснил он.
Материалы на эту тему также можно прочитать:
обсуждение