При перепечатке материалов просим публиковать ссылку на портал Finversia.ru с указанием гиперссылки.
«Почему ИИ общего назначения не будет создан».
Почему его невозможно создать.
С сильным ИИ получается, как с термоядерным синтезом. Его взрывной вид (самую мощную в мире бомбу) сделали почти 70 лет назад. Тогда же собрались освоить управляемый вид (построить термоядерные электростанции). Но не судьба. Спустя почти 70 лет ситуация, как и с сильным ИИ. Может, после 2045 года что-то появится. А может и нет.
На тему самой грандиозной техно-аферы, обещающей создание сильного ИИ, мною написано предостаточно: 1 (http://bit.ly/32xPDZE), 2 (https://bit.ly/3f9b5tW) и т.д. Казалось бы, все сказано.
Однако, опубликованная в Nature новая работа проф. Рагнара Фьелланда «Почему ИИ общего назначения не будет создан» (https://go.nature.com/3e7OJYn) несомненно стоит прочтения по двум причинам.
1) Проф. Фьелланд – знаменитый норвежский физик и философ, – не просто прокричал еще раз «а король-то голый!» с высокой научной трибуны журнала Nature. Фьелланд на современном уровне переформулировал знаменитую аргументацию невозможности создания сильного ИИ, опубликованную Хьюбертом Дрейфусом более полувека назад в работе «Алхимия и искусственный интеллект».
2) Современная трактовка Фьелланда еще более радикальная, чем аргументация Дрейфуса (равно как и автора этого поста). Фьелланд препарировал вопрос так, что показал принципиальную невозможность создания сильного ИИ, __не просто в обозримом будущем, а вообще никогда__.
- Компьютеры, у которых нет тела, нет детства и нет культурной практики, вообще не могут приобрести интеллект (ни-ко-гда) – это тупик.
- И это не просто тупик, а весьма опасный тупик. Вера в возможность реализации сильного ИИ вредна, т.к. переоценивает возможности технологий и недооценивает возможности людей. Результатом этой веры во многих случаях будет замена того, что хорошо работает, на то, что работает хуже.
Приведу здесь лишь несколько важных соображений из аргументации Фьелланда, развивающей аргументацию Дрейфуса.
А. Компьютерная мощь никогда не разовьется в человеческий разум, потому что они фундаментально различны. Человеческое мышление в основном неалгоритмично. Это относится к важнейшим качествам разума: благоразумие – способность принимать правильные решения в конкретных ситуациях, и мудрость – способность видеть целое.
Б. Важная часть человеческих знаний является неявными (невербализуемыми – tacit) знаниями. Эти знания не могут быть сформулированы в компьютерной программе. Надежды, что обучение нейронных сетей, позволяющее им учиться без явных инструкций, решит проблему неалгоритмических способностей и неявных знаний, – ошибочны. В равной степени можно пытаться научить ребенка кататься на велосипеде, не имея его, и лишь используя инструкцию.
В. Вера в обретение бессмертия путем создания супер-ИИ (техносингулярность и т. д.), является выражением новой религии, выраженной через инженерную культуру (см. также мой пост 3 (https://bit.ly/2xRykZ3)). Зачастую утверждения, что компьютеры способны дублировать человеческую деятельность, крайне упрощены и искажены. Проще говоря: переоценка технологий тесно связана с недооценкой людей.
Г. Попытки строить ИИ лишь на основе корреляций, а не причинности – тупиковы. Причинность – важнейшая часть человеческого мышления. Компьютеры не могут справиться с причинностью, потому что они не могут вмешиваться в мир. Их просто нет в мире, потому что они не воплощены. Они не являются агентами, способными своими действиями что-либо менять в своем окружении. До тех пор, пока компьютеры не станут действующими агентами, принадлежащими к определенной культуре, они не приобретут человекоподобный интеллект. Что, впрочем, не помешает использовать их в задачах автоматизации.
ИТОГО. Мы являемся телесными и социальными существами, живущими (чувствующими, думающими и действующими) в материальном и социальном мире. Наш разум – основной механизм, позволяющий это. Ну а компьютерный ИИ (слабый или сильный) вообще не имеет к этому отношения. Раньше это был хайп, теперь – чистый фейк.
Профиль автора в соцсети: https://www.facebook.com/sergey.karelov.5
обсуждение