

Сергей Марков, специалист в области искусственного интеллекта, начальник Управления экспериментальных систем машинного обучения Департамента общих сервисов «Салют» Сбера, основатель научно-популярного портала XX2 ВЕК, отвечает на вопросы Ксении Королёвой о нейросетях. Видеозапись беседы см. youtu.be/P7Yp1zk-nI8
— В чем, на ваш взгляд, заключается различие между интеллектом искусственным и естественным?
— Прежде всего — определений интеллекта у нас слишком много. Единственный бесспорный пример интеллекта — человеческий. Конечно, если вы не солипсист, вы предполагаете наличие интеллекта у других людей. Собираясь дать определение интеллекту, мы оказываемся в неприятном положении: по одному-единственному примеру надо построить некоторое множество. Через одну точку можно провести бесконечное количество прямых; точно так же дело обстоит и с определением интеллекта. Оно может быть узким — охватывая только человеческий интеллект и никакой больше, — а если попробовать его расширить, то придется признать наличие интеллекта у некоторых животных. Только у высших приматов или у приматов вообще? Или же у всех зверей без исключения? Неизбежно какие-то из этих определений интеллекта будут включать в себя некие искусственные системы — и уже сделанные нами, и те, которые мы надеемся создать в будущем.
Впервые словосочетание искусственный интеллект прозвучало из уст Джона Маккарти в 1956 году на семинаре в Дартмутском колледже 1. Со времен Дартмутского семинара наука стала понимать под искусственным интеллектом прежде всего направление технологии, занимающееся автоматизацией решения интеллектуальных задач. То есть если мы пытаемся создать систему, способную заменить человека в решении задач, которые он традиционно решает при помощи своего разума, то мы создаем систему искусственного интеллекта. Такие системы вовсе не обязаны быть похожими ни на человека, ни на его разум. Конечно, в науке и технологиях популярен такой подход, как бионика: если решения проблемы нет, то иногда можно «подглядеть» его у природы. Так, создатели первых самолетов наблюдали за птицами и летучими мышами — достаточно вспомнить французского инженера Клемана Адера и его аппараты «Эол» и «Авион». Современные самолеты, безусловно, далеко ушли от своих биологических прототипов и крыльями не машут. Теперешние системы искусственного интеллекта тоже если и напоминают человеческий мозг, то отдаленно. Искусственный интеллект — огромное направление, где есть место как системам, вдохновленным природой, так и весьма отдаленным от нее.
Пора упомянуть, что обыватели, говоря об искусственном интеллекте, часто имеют в виду общий (универсальный) AI — то, что в науке именуется artificial general intelligence. Это гипотетическая система, которая будет способна решать неопределенно широкий круг интеллектуальных задач. На такое же способен и человеческий разум. Мы постепенно движемся к тому, чтобы научиться создавать подобные системы. В начале 2010-х годов почти что каждая система ИИ была узкоспециализированной, предназначенной для решения лишь одной задачи. Шахматная программа не сыграет с вами в покер и откажется распознать котиков на картинке. Как ни странно, она даже не сможет сыграть партию на доске 9×9. Но благодаря своей узкой специализации шахматный движок способен состязаться с такой сложной системой, как человеческий мозг.
Теперь обратимся к системам, появившимся после 2017 года и основанным, в частности, на больших трансформерных моделях. Тут заметно движение в сторону универсализации. ChatGPT может решать много разных задач — не обязательно тех, на которые его натаскивали. Специалисты предполагают, что дальнейшее развитие и масштабирование этих моделей рано или поздно приведет к появлению долгожданного общего искусственного интеллекта.
— На ваш взгляд, умение делать выбор — ключевой признак искусственного интеллекта?
— Нет: ведь выбор в каком-то смысле может сделать даже подброшенная монетка. Вообще, довольно непросто ввести какие-то простые критерии, отделяющие искусственный интеллект от естественного. Тут в дело вмешивается полемика на тему творчества. Многие люди, говоря о наличии творческих способностей, ставят во главу угла умение создавать что-то новое. Но это не так-то и сложно. Бросьте игральные кубики много раз — они почти гарантированно создадут вам совершенно новую последовательность чисел, которая раньше ни у кого не выпадала. В XVIII веке была популярна музыкальная игра в кости 2 (одну из ее вариаций приписывают Моцарту): отобрать несколько коротких музыкальных фрагментов, пронумеровать их и бросать кости, определяя новую последовательность отрывков и получая новую, доселе не встречавшуюся, композицию. Такое же можно проделывать и с нотами, и с буквами…Случайный выбор — дело нехитрое; создать что-то новое при помощи технологических решений ничуть не сложно. Другое дело, насколько это новое будет соответствовать критериям, предъявляемым нами творчеству: мы вряд ли признаем случайную последовательность букв произведением искусства. С интеллектом то же самое: просто что-то выбрать — элементарно, а вот сделать выбор, соответствующий заданным критериям или целям, куда сложнее.
Для оценивания человеческого интеллекта мы придумываем некие наборы тестов, например, тест Айзенка на коэффициент интеллекта. Мы даем человеку задачи и считаем процент правильных ответов. Такой критерий оценки не лишен дефектов: откуда берется набор задач для теста, почему одни вопросы включаются, а другие нет? Так, в тесте Айзенка встречаются проблемы, схожие с теми, что обычно решают «белые воротнички» в современном урбанистическом обществе: операции с абстрактными образами, логикой… Теперь возьмем набор задач из серии «Как обмануть антилопу на охоте» — и наш тест поощрит интеллект охотника-собирателя. Вот так попытки выстроить «интеллекты» на линейке разбиваются о насущные проблемы: не совсем понятно множество интеллектуальных задач, которые предлагаются тому или иному разуму — каким из них отдавать приоритет? Но тем не менее для современных систем ИИ создаются большие наборы тестов, в какой-то степени напоминающие проверку IQ, — да и сам тест коэффициента интеллектуальности находит применение, вдобавок к задачам Михаила Бонгарда.
В прошлом году вышла фундаментальная работа — продукт исследования целых двух с лишним сотен научных коллективов — тест BIG-bench, в котором собрано огромное количество интеллектуальных задач 3. Они прекрасно подходят для автоматизированной оценки интеллектуальных возможностей генеративных нейросетей. BIG-bench дает довольно хорошее представление о том, на что подобные модели способны и не способны, где догнали и перегнали естественный интеллект, а где всё еще статистически значимо отстают от человеческого разума. Всё это — скорее композитный подход к тому, что является искусственным интеллектом и определяет его критерии.
— Возможно ли сделать искусственный эмоциональный интеллект?
— Опять же вопрос в определении: что есть эмоциональный интеллект? Если мы, например, говорим о способности машины опознать эмоциональную окраску тех или иных высказываний человека или его поведения, а затем оперировать полученной информацией, то машины умеют делать это довольно давно. Есть системы, которые распознают проявления человеческих эмоций на фотографиях или видеосъемке лица, по записи голоса или, например, по тексту — машина, способная проводить сентимент-анализ, может отсеять хвалебные комментарии от ругательных. Передавать эмоциональную информацию в тексте, изображениях и голосе компьютеры тоже уже научились. Для всего этого есть стандартизованные наборы данных, на которых производится оценка этих способностей машины. Но эмоциональное состояние человека и проявление эмоций — вещи разные: в душе может быть смятение, а на лице равнодушие. Связь между конкретными физическими явлениями вроде учащения сердцебиения и сокращения мимических мышц и нашим подлинным внутренним состоянием — довольно сложная фундаментальная проблема нейрофизиологии. Как физические процессы в теле соотносятся с психическим миром, миром субъективных ощущений человека? Здесь мы пока что можем говорить только о корреляциях: поэтому часто и звучат термины наподобие коррелятов эмоциональных состояний. Машина имеет дело с внешними проявлениями человеческих чувств и эмоций, но ведь точно так же дело обстоит и с людьми. Они не могут залезть друг другу в голову и поэтому делают выводы об эмоциональных состояниях других людей, основываясь на наблюдениях и, возможно, представлениях о том, что люди могут испытывать в тех или иных ситуациях.
Поэтому в целом непреодолимого барьера в плане эмпатии или построения эмоционального диалога с людьми для машины нет. Более того, за последний год было проделано много интересных экспериментов. Например, ChatGPT использовали в качестве медицинского консультанта, а потом попросили пациентов оценить уровень его эмпатии. Те сочли ответы нейросети в среднем более эмпатичными, нежели ответы настоящих врачей. Получается, машины в какой-то степени могут проявлять эмоциональный интеллект — почему нет?
— Что является ограничителем в развитии трансформерных сетей, кроме бутылочного горлышка фон Неймана 4?
— Хороший вопрос. Я бы сказал, что эта проблема — фронтир для многих исследовательских групп. Можно сказать, что трансформерные сети хорошо масштабируются. С увеличением числа их параметров, вычислительных мощностей и используемых для обучения данных растет и «интеллект» сетей. Здесь мы пока что не видим уменьшающейся отдачи — diminishing returns — сети по-прежнему масштабируются стабильно. Но есть и ограничивающий фактор такого масштабирования — имеющиеся вычислительные мощности и количество данных. Человечество увеличивает свой цифровой след экспоненциально: каждые два года общий объем цифровых данных удваивается. В обучении больших трансформерных моделей используются открытые данные мировой информационной сети. Вычислительные мощности растут примерно пропорционально тенденциям, замеченным еще Гордоном Муром в свое время. (Закон Мура: каждые два года количество элементов на промышленно производимых интегральных схемах удваивается.) Конечно, бывают споры относительно того, насколько мы отклонились от этого тренда. Бутылочное горлышко фон Неймана действительно выступает важным ограничивающим фактором, ведь нынешние тензорные процессоры, используемые для обучения больших трансформерных сетей — по-прежнему фоннеймановские машины, несмотря на свою способность оперировать сразу с целыми многомерными матрицами, а не единичными скалярными величинами. Узкое место — шина, используемая для обмена градиентами между вычислительными узлами суперкомпьютеров. Само собой, здесь работают и ограничения на параллельные вычисления, иллюстрируемые, в частности, законом Густавсона — Барсиса и законом Амдала. Еще Марвин Ли Мински предполагал, что интеллект вычислительных систем будет расти подобно логарифму от количества вычислительных ядер; в некотором смысле это действительно так.
Активно ведется работа над альтернативными архитектурами, которые позволят расширить бутылочное горлышко. Загвоздка в том, что для эффективного расширения горлышка нам нужна не просто технология построения нефоннеймановских машин (сейчас уже есть огромное количество разных моделей нейроморфных систем), а технология промышленная, которая позволит производить такого рода системы в товарном объеме. Пока что мы лишь приближаемся к созданию таких альтернативных технологий.
Параллельно ведется поиск алгоритмов локальной оптимизации или поиска разреженных алгоритмов оптимизации вообще. Это позволит снизить нагрузку на шины передачи данных. Градиент можно будет не пробрасывать через всю сеть целиком, но задействовать для этого лишь малую, локальную часть сети — объем передаваемых данных уменьшится, и это тоже позволит расширить горлышко фон Неймана. Не случайно ведущие специалисты в области машинного обучения — такие, как Ян Лекун или Джеффри Хинтон, — уделяют локальной оптимизации много времени.
Отдельно стоит вопрос с данными: можно ли по цифровому следу человечества построить адекватное представление об окружающем мире? Хватит ли того, с чем машина имеет дело, — с текстами и полученными при помощи сенсоров данными — для того, чтобы, допустим, сделать какие-то исчерпывающие представления о физике окружающего мира или о глобальных закономерностях? Ведь машина подобного рода не взаимодействует с окружающим миром активно, а лишь выступает в роли пассивного наблюдателя за данными, возникающими в результате взаимодействия людей с окружающей действительностью. Единого мнения по этому поводу нет. Одни говорят, что цифрового следа будет достаточно для создания универсального искусственного интеллекта: в конце концов, помимо текста есть еще видеоролики на YouTube и TikTok. Люди не только описывают окружающий мир письменным словом, но и запечатлевают физические явления камерой. Другие полагают, что не бывать универсальному AI без инструментов активного обучения, без агентов в физическом мире, без построения механизмов обратной связи. Сейчас функцию этих механизмов в случае ChatGPT выполняет обучение с подкреплением на основе обратной связи от человека (Reinforcement Learning with Human Feedback, RLHF). Эксперты смотрят на варианты ответа, выдаваемого нейросетью на один и тот же вопрос, и ранжируют их в порядке убывания качества. Однако собрать действительно много человеческих оценок сложно, поэтому выбор пользователей используется не напрямую. Вместо этого собранные ответы становятся материалом для обучения отдельной нейросети — так называемой модели вознаграждения (reward model), и уже ответы этой сети применяются в качестве сигнала обратной связи при дообучении нейросети-генератора.
— Мне кажется, острее всего сейчас стоит проблема того, что правду от вымысла отличить сложно — где слова человеческие, а где машинные? Специалист, само собой, может определить компьютерного собеседника, задавая ему вопросы; отличить нарисованную нейросетью кошку от подлинной фотографии. Вот вопрос: как в самой сути AI заложено определение того, что реально, а что — вымысел?
— Для современных нейросетей правдой чаще всего является то, что чаще встречается в обучающих выборках. Сеть чаще всего получает ответ «четыре» на вопрос, сколько у кошки лап; другие варианты встречаются куда реже, так AI и понимает, как следует отвечать. Но это проблема не специфична лишь для искусственного интеллекта: люди тоже склонны принимать за правду то, что чаще всего озвучивается. Наши представления о правильном и неправильном, истинном и ложном зачастую основаны на той информации, что мы получаем от других людей, от книг и от СМИ. (Хорошей иллюстрацией тому может послужить религия: в каком религиозном окружении вы выросли, такую религию вы, скорее всего, и примете как истинную.) В этом-то и кроется глобальная проблема и для машин, и для людей: как отличить мнение от фактической правды или неправды? Конечно, есть простые истины, которые непосредственно сам человек может проверить экспериментально. Какое-то количество подобных проб и ошибок мы регулярно совершаем в своей жизни, набиваем шишки, накапливая опыт, проверяя правильность представлений об окружающем мире. Но на самом деле у каждого человека лишь одна жизнь и одно тело — всего не перепробуешь, приходится доверяться мнению других людей и информации, ими уже собранной. Машина же возможностью так активно взаимодействовать с миром не обладает (если не рассматривать специальные эксперименты, включающие обучение с подкреплением), зато может взглянуть на мир глазами самых разных людей. Они оставляют свой опыт в текстах, записывают его на видео — с этим компьютер работать может. В некотором смысле телом для машины служит всё создающее цифровой след человечество — с его помощью искусственный интеллект получает опыт и критерии правильности-неправильности. Здесь возникает та же самая проблема, что и у людей, — распространенные заблуждения в отношении некоторых явлений окружающего мира. Какие-то из заблуждений могут тиражироваться, и это неизбежно приведет к тому, что у машины будут ложные представления.
Бороться с этим можно путем ресемплинга: размножать более надежные, авторитетные источники в обучающей выборке; привлекать экспертов из разных областей науки, чтобы они составляли более качественные обучающие выборки; заранее узнать о массовых заблуждениях и о том, как их лучше всего опровергать. Вообще, модели, подобные ChatGPT, обучаются в три стадии. Первая — предобучение: машина решает простую задачу в режиме самообучения, например предсказывает следующее слово (точнее, токен) в тексте на основе предыдущих или восстанавливает по контексту удаленные из текста фрагменты. Затем модель дообучается на чистом наборе данных — на инструктивном массиве (SFT-dataset, от supervised fine-tuning — дообучение с учителем). Он включает в себя набор модельных диалогов — вопросы людей и желаемые ответы на них. В английском языке этот этап носит название fine-tuning (в русском же обычно применяют термин «дообучение»). Данные из массива не только настраивают модель на диалоговые режим работы, но и формируют предпочтения модели, в том числе ее своеобразную этику. На третьем этапе обучения — обучения с подкреплением от людей — эксперты общаются с машиной, отмечая хорошие и плохие ответы. Это позволяет машине еще точнее отличать хорошие и нравящиеся людям правильные ответы от ответов «нехороших» и пользователей не устраивающих. Так же, как и при обучении людей, всё зависит от учителей и учебного материала. Модели неизбежно могут обладать той или иной субъективностью, быть носителями разных систем ценностей — всё зависит от того, что подкладывается в обучающие данные модели.
— Вот этический вопрос. В соцсетях встречаются разные сообщения по поводу нейросетей: одни говорят о безусловной опасности нейросетей и призывают запретить их, а другие утверждают, что искусственный интеллект поможет человечеству выбрать «правильный путь». Любая технология может представлять опасность — существуют и атомные бомбы, и атомные электростанции. Что вы думаете по поводу опасности нейросетей, как мы можем себя обезопасить? Есть ли конференции или тематические собрания, на которых обсуждают вопросы этики использования нейросетей — могут ли они завести общество не туда?
— Тематика рисков, ассоциируемых с искусственным интеллектом, неисчерпаема, как атом. Риски могут быть совершенно разными. Некоторые из них пробуждают интерес общественности, другие же игнорируются. Технологии искусственного интеллекта могут применяться в самых разных целях: тут принципиального отличия ни от других технологий, ни даже от других инструментов, нет. Любая технология, связанная с повышенной опасностью, требует методов управления рисками. Здесь можно провести параллели с инженерными подходами, выработанными по отношению к той же атомной энергетике или к автотранспорту. Понятно, что должны быть разработаны определенные технические регламенты, определенные средства сертификации и оценки. Нужно определить границы регулирования: какие из интеллектуальных систем являются средствами повышенной опасности или ассоциируются с оными? Нужно ли нам регулировать все модели вплоть до тех, что рисуют котиков, или же надо подойти к более точечному регулированию? Любое регулирование сопряжено с затруднениями развития для технологии; чрезмерный контроль может вылиться в замедление или даже в остановку того или иного направления исследований. Есть знаменитая байка о том, что в свое время первые законы в отношении автотранспорта требовали того, чтобы перед автомобилем шел человек с флажком (в действительности так называемые «Законы о локомотивах», или, как их называют, «Законы о красном флаге» требовали этого только в некоторых случаях, однако содержащиеся в них ограничения действительно нанесли серьезный урон развитию автотранспорта). Таких фактически запретительных способов регулирования можно придумать немало. Помимо торможения исследований, это может привести к тому, что новые технологии смогут осваивать лишь крупные корпорации, которые могут пройти через сложные регуляторные барьеры, а индивидуальные исследователи вместе с участниками движения Open Source просто останутся за бортом.
Таким образом, у регулирования есть две стороны: с одной стороны, рисками, сопряженными с развитием технологий, можно управлять; а с другой — контроль может нести вред. Сейчас ведутся активные дискуссии по поводу того, какие риски требуется купировать, а какие лучше оставить в покое. Взрыв на атомной станции и сгенерированный котик с тремя глазами — небо и земля. Масштабы рисков нужно понимать. Проблема «горячая»; она волнует не только обывателей, но и профессионалов, которые устраивают специализированные конференции и выпускают тематические научные издания. Множество исследовательских групп фокусируется на этических проблемах. Еще в 2015 году группа под руководством Жана-Франсуа Бонфона выпустила в Science статью, посвященную этике автопилотирования5. Какие принципы мы должны закладывать в автопилоты для аварийных ситуаций? Перед машиной, несущейся на огромной скорости по трассе, выскакивают бабушка с ребенком и столкновения не избежать — что делать машине? Понятно, что всем хочется, чтобы системы искусственного интеллекта разделяли наши этические ценности. Обучать модель принимать решения, которые мы одобряем, — в этом заключается проблема выравнивания (alignment). Здесь мы неизбежно наталкиваемся на то, что среди людей нет единого мнения относительно многих этических задач. В проблеме бабушки и ребенка разные общества примут разные решения.
В целом, риски развития искусственного интеллекта можно разделить на экзистенциальные и неэкзистенциальные. При первых возникает глобальная угроза для всего человечества или биосферы, вторые же включают в себя всё остальное. Но неэкзистенциальные риски, на мой взгляд, не менее важны. Сегодня огромное количество алгоритмов стало частью жизни нашего общества. Каждый раз, когда вы подаете заявку в банк на получение кредита или откликаетесь на вакансию, в отношении вас решение зачастую принимает алгоритм. По степени влияния на вашу жизнь это решение может соперничать с вердиктом суда. Но в суде у вас всегда есть право на доступ к собранным против вас доказательствам, на квалифицированную юридическую помощь, на состязательность судебного процесса… Всего этого при взаимодействиями с могущественными алгоритмами у вас нет. Получается аналог тайного суда, который за глаза принимает решение, — тут не узнать, какие факторы принимались в расчет и были ли в процессе дефекты. Эта проблема так и называется — проблема цифрового тайного суда.

Если же говорить о проблемах этики, то они связаны с неэкзистенциальными рисками довольно плотно. Одним из фундаментальных исков является тиражирование предрассудков и несправедливости. В обучающие выборки для систем машинного обучения может попасть некое предубеждение, например в отношении каких-то групп людей, и обученная на несбалансированных данных модель будет его множить. Создавая какую-то систему искусственного интеллекта для массового использования, мы рискуем размножить предрассудки, положив начало системному угнетению. Хорошим примером может служить работа Джой Буоламуини в медиалаборатории Массачусетского технологического института, где она в середине 2010-х годов изучала способности распространенных тогда коммерческих систем распознавания лиц. Выяснилось, что они гораздо хуже распознавали лица женщин и темнокожих людей. Потенциально это могло привести к системному неравенству, например при использовании автоматических сервисов регистрации в аэропортах и кредитоматов. Представим себе, что сегодняшний ChatGPT будет выдавать негативные высказывания в отношении определенных социальных или этнических групп людей — результат крайне нежелательный. В свете этой проблематики важную роль играет то, как общество такие системы воспринимает и как относится к ним. На мой взгляд, необходимо объяснить людям, чем современные генеративные нейросетевые модели являются и не являются. Они — инструмент для генерации контента, вроде «Фотошопа» или «Ворда», но куда более продвинутые. Раньше людям приходилось рисовать всё от руки, самим делать штриховку и закраску, а сейчас этот труд можно переложить на плечи машины. Очень классные инструменты, которые потенциально могут нам помочь решить немало задач, сэкономив уйму времени. Нейросетевые модели — средства автоматизации, направленные на снижение трудозатрат при выполнении тех или иных задач. Это инструмент усиления возможностей нашего интеллекта: человек с калькулятором будет считать куда эффективнее коллеги без вычислительной машины, а человек с разумом, усиленным большой генеративной нейросетью, выполнит многие интеллектуальные задачи лучше человека, который не использует такой инструмент. Нейросети — средства для генерации развлекательного контента. Сейчас такого рода системы нередко используются просто для развлечения, генерации мемов, шуток. Такое направление нельзя недооценивать: драйвом развития технологий во все времена очень часто становились развлечения. Вдобавок нейросетевые модели — демонстрация возможностей современных технологий искусственного интеллекта всему человечеству, включая инвесторов, ученых, специалистов из смежных областей.
При этом подобные системы не являются средствами массовой информации или официальными источниками мнений своих создателей. ChatGPT не представляет собой точку зрения своей компании OpenAI. Нейросети не являются сверхразумами, священными оракулами, источниками истины. Напрасно ждать от искусственного интеллекта того, чтобы он стал арбитром, который порешает все проблемы человечества и отсеет правильные мнения от неправильных. Ни одну нынешнюю нейросетевую модель нельзя считать искусственной личностью — у них нет самосознания, нет собственных целей. Рано или поздно мы сможем сделать искусственный интеллект, обладающий самосознанием, но не сейчас, не при помощи современных методов: нам потребуются куда более сложные эксперименты, чтобы получить на выходе сознание. И, разумеется, нейросети — не средство пропаганды тех или иных идей. Множество людей, как только появилась возможность, бросилось задавать ChatGPT вопросы по поводу правильности идеологий и ценностей. Но таковы уж люди: в баталиях вокруг нейросетей мы наблюдаем отражение человеческого общества, ведь искусственный интеллект обучался на данных, собранных людьми. Иногда это зеркало кого-то пугает — думаю, ситуация нормальная, и к отражению нужно просто привыкнуть, понять, каким его нужно принимать. Вот вызов человечеству: сумеет ли оно извлечь из такого классного инструмента пользу, а не вред?
— Сергей, огромное спасибо за интервью! Очень познавательный рассказ. Надеюсь, мы с вами еще не раз увидимся и сможем задать еще много других вопросов.
— Спасибо вам, что пригласили! До встречи.
1 en.wikipedia.org/wiki/Dartmouth_workshop
2 en.wikipedia.org/wiki/Musikalisches_Würfelspiel
4 en.wikipedia.org/wiki/Von_Neumann_architecture#Von_Neumann_bottleneck
5 Bonnefon J.-F., Shariff A., Rahwan I. The social dilemma of autonomous vehicles // Science. 2016. Vol. 352, Iss. 6293, pp. 1573—1576.

Нейросети субъективны, выдают просто некое усреднённое мнение. Но ясно, что компьютер, поскольку умеет считать, в принципе в состоянии мыслить объективно — делать логические выводы из предпосылок. Чего же тут нехватает?
Я изучаю любознательность и исследовательское поведение детей и изобретаю и конструирую объекты, провоцирующие любознательность и исследовательское поведение. Написал текст, в котором обосновываю, что системы машинного обучения могут помочь в изобретении такого рода объектов – но лишь до некоторого уровня их новизны и сложности. Дальше возникает принципиальная проблема генерации существенно новых объектов с помощью набора стандартных инструментов.
Инструмент Кандинский 2.1 мне здесь иллюстративное подспорье. Вот картинки, которые он нагенерил. Это довольно однотипные объекты (ящики с глазами), а значит, они наскучат, будучи предъявлены в серии (например, один объект на один день). Так не должно быть с объектами, провоцирующими любознательность и исследовательское поведение. Там нужно что-то существенно новое.
И еще одна штука (просто забавно): по запросу «любознательный ребенок обследует объект для изучения любознательности и исследовательского поведения» генерятся картинки, где дети обследуют тоже однотипные объекты, но это почему-то другой тип (стеклянные шары и лупы), а вовсе не тот, что генерится на запрос «объект для изучения любознательности и исследовательского поведения».
Вот картинки
Интересное у Вас поле исследования, — и результаты, похоже, будут востребованы не только людьми. ))
Замечу, — мне вполне разумным показался набор картинок в ответ на запрос «любознательный ребенок обследует объект для изучения любознательности и исследовательского поведения».
Ведь ключевой элемент запроса это «любознательный ребенок…», — а не объекты и инструменты, — акцент ведь в запросе на ребенке.
Это можно проверить перестановкой слов в запросе, например, вот так:
«объект для изучения любознательности и исследовательского поведения любознательный ребенок обследует».
Или, более двусмысленно:
«объект для изучения любознательности и исследовательского поведения обследует любознательный ребенок».
Спасибо, попробую
С английским ситуация такая же — объекты разные
Опубликовал короткий (на страницу с небольшим) препринт «»Наблюдение изменяет объект»: забавный эффект генерации изображений от нейросети Кандинский 2.1»
https://www.researchgate.net/publication/371989807
На рисунке: пять изображений, сгенерированных нейросетью Кандинский 2.1 по запросу “object designed for experimental psychological study of curiosity and exploratory behavior” (объект, разработанный для экспериментального психологического исследования любознательности и исследовательское поведения) и пять изображений, сгенерированных нейросетью Кандинский 2.1 по запросу “two people observe object designed for experimental psychological study of curiosity and exploratory behavior” (два человека наблюдают объект, разработанный для экспериментального психологического исследования любознательности и исследовательское поведения).
Обратим внимание на разницу сгенерированных “objects designed for experimental psychological study of curiosity and exploratory behavior” в том и другом случае.
Cергей Марков говорит:
«Многие люди, говоря о наличии творческих способностей, ставят во главу угла умение создавать что-то новое. Но это не так-то и сложно. Бросьте игральные кубики много раз — они почти гарантированно создадут вам совершенно новую последовательность чисел, которая раньше ни у кого не выпадала. В XVIII веке была популярна музыкальная игра в кости 2 (одну из ее вариаций приписывают Моцарту): отобрать несколько коротких музыкальных фрагментов, пронумеровать их и бросать кости, определяя новую последовательность отрывков и получая новую, доселе не встречавшуюся, композицию. Такое же можно проделывать и с нотами, и с буквами…Случайный выбор — дело нехитрое; создать что-то новое при помощи технологических решений ничуть не сложно. Другое дело, насколько это новое будет соответствовать критериям, предъявляемым нами творчеству: мы вряд ли признаем случайную последовательность букв произведением искусства. С интеллектом то же самое: просто что-то выбрать — элементарно, а вот сделать выбор, соответствующий заданным критериям или целям, куда сложнее.»
Вопрос: существует ли новизна, которая не может быть сведена к ранее неизвестным комбинациям известных элементов? Сергей Марков ничего про нее не говорит. А это принципиальный вопрос. Есть подходы, в которых обосновывается или подразумевается, что новизны, не редуцируемой к комбинациям элементов, нет — и в принципе быть не может. И есть подходы, в которых обосновывается или подразумевается, что такая новизна есть (сильный вариант – не просто есть, но только она и может считаться истинной новизной).
Тема вряд ли вызовет дискуссию, разве что сейчас, в период летних отпусков, — ведь почти все прошедшие российскую аспирантуру и докторантуру нервно вздрагивают при словах «научная новизна» и «практическая значимость».
Любопытно, — в русскоязычной Википедии нет статьи «Новизна», — но есть статья «Поиск новизны», в которой способность к поиску «считают в высшей степени наследственной».
Скорее всего, в латентной форме она есть у всех, — похоже, без неё не выживешь в нашем мире, эволюционирующем вскачь, революционными скачками, неизвестно куда и неизвестно зачем. ))
Новизна-то была, а вот практическую значимость приходилось натягивать.
Поразительно другое, по прошествии 30-40 лет поперла практическая значимость и там, где её и не ждали. Подросли технологии, стали доступны большие компьютерные мощности и методы, доселе им недоступные, пошли в практику.
Нет-нет, я не о разделе «Новизна» в диссертациях. Было бы прискорбно, если бы меня поняли так.
Я о той новизне, о которой математик и доктор наук по философии математики А.Н. Кричевец написал
«хроническая недостаточность оснований сопутствует всякой ситуации образования нового»
в статье «О математических задачах и задачах обучения математике»
http://www.voppsy.ru/issues/1999/991/991032.htm
Если человек считает, что для новизны (скажем, возникновения теплокровности, или глаза, или математической теории более высокого уровня) всегда не хватает оснований (они есть, конечно, но их недостаточно), то он работает в традиции холизма, идущей, по крайней мере, от древних греков.
Если человек считает, что их полный набор всегда найдется и к ним можно свести новизну (новизна здесь – это ранее не выпадавшая комбинация игральных костей, существовавших с начала времен), то он работает в парадигме редукционизма (идущей оттуда же).
При этом исследовательские стратегии холизма и редукционизма пронизывают друг друга (для иллюстрации можно посмотреть на картинку Д. Хофштадтера — рис. 64 на https://litlife.club/books/138924/read?page=106 ), но один или другой тип может доминировать.
Это напрямую связано с возможностью сильного ИИ.
Если ИИ может порождать новизну только 2-го типа и не может 1-го, а человек – и ту, и ту (хотя комбинаторную новизну хуже), то всегда будут задачи, которые человек сможет СТАВИТЬ и решать лучше ИИ.
Я недавно развлекался с чат-ботом, вводя запросы “invent a new problem”, “set a new problem”. Судя по ответам, он вообще «не понимает», что это такое, «не умеет» изобретать, ставить новые проблемы.
Мое мнение, что современные системы машинного обучения этого не смогут в принципе – они же учатся на примерах. Значит, в лучшем случае сгенерят проблему, продолжающую ряд уже известных. Но новая математическая проблема, продолжающая ряд уже известных, — это, по большому счету, нонсенс.
Вот, например, набор из четырех утверждений, возможно полезных для поиска нового.
Если захочется или понадобится, — их можно принять в качестве аксиом. ))
Основанием, фундаментом любой математической конструкции являются аксиомы.
Аксиомы – это принятые допущения, предположения, — и ничего сверх этого.
Новое всегда находится за пределами аксиом.
В жизни всегда есть место подвигу.
“invent a new problem”, “set a new problem”. Думаю, подавляющее большинство людей тоже оказались бы озадачены. Я бы тоже ответить не смог.
Вот примеры запросов и ответов от ChatGPT https://chat.theb.ai pose a new problem Sure! Here’s a problem for you: Problem: Sudoku Solver Write a program that can solve a given Sudoku puzzle. Sudoku is a number-placement puzzle where the objective is to fill a 9×9 grid with digits so that each column, each row, and each of the nine 3×3 sub-grids contains all of the digits from 1 to 9. ———— pose a new problem Certainly! Here’s a new problem for you: Problem: Network Routing Optimization You are given a network of routers connected through various links. Each link has an associated cost, which represents the time it takes to transmit data through that link. Your task is to find the optimal route between a given source router and a destination router, considering the minimum cost. Write a program or algorithm that takes the network configuration, including the routers and their connections with associated costs, along with the source and destination routers as input. The program should output the optimal route from the source to the destination router, considering the minimum cost. ———— invent a new problem Certainly! Here’s a new problem for you: Problem: Parcel Delivery Planning You are working as a logistics manager for a delivery company. Your task is to optimize the delivery route for a set of parcels to minimize the total distance traveled by the delivery vehicles. You are given a list of delivery locations, represented as coordinates (latitude and longitude), and the number of delivery vehicles available. Each delivery vehicle can carry multiple parcels at once. Write a program or algorithm that takes the list of delivery locations, the number of delivery vehicles, and the maximum capacity of each vehicle as input. The program should output the optimized route for each delivery vehicle, considering… Подробнее »
????? насколько я помню (могу ошибаться) это примеры давно и хорошо известных проблем. ИИ просто предлагает их for you.
Да, в этом и дело, об этом я и пишу выше:
«Судя по ответам, он (чат-бот) вообще «не понимает», что это такое, «не умеет» изобретать, ставить новые проблемы.
Мое мнение, что современные системы машинного обучения этого не смогут в принципе – они же учатся на примерах. Значит, в лучшем случае сгенерят проблему, продолжающую ряд уже известных. Но новая математическая проблема, продолжающая ряд уже известных, — это, по большому счету, нонсенс».
Да именно это я и хотел сказать. Возможно, мне не удалось выразиться так точно, как Вам. Просто мне думается, что new problem, не совсем удачный пробный камень.
Креативность вообще представляется мне особой проблемой, не связанной напрямую с наличием интеллекта. Масса людей, обладающих явно ненулевым интеллектом, совершенно не креативны. ИМХО, это некая особая способность. Потому креативные люди так ценны, хотя часто и совсем не приятны в жизни.
Да, была психологическая теория, в соответствии с которой возможен широкий диапазон комбинаций у разных людей:
низкие интеллект и креативность;высокие интеллект и креативность;высокий интеллект и низкая креативность;низкий интеллект и высокая креативность (это может быть кошмаром для окружающих — идеи фонтанируют, а мозгов не хватает).
Угу…
А вот возьмите и сравните эти две фразы:
«Случайный выбор — дело нехитрое; создать что-то новое при помощи технологических решений ничуть не сложно. Другое дело, насколько это новое будет соответствовать критериям, предъявляемым нами творчеству: мы вряд ли признаем случайную последовательность букв произведением искусства. С интеллектом то же самое: просто что-то выбрать — элементарно, а вот сделать выбор, соответствующий заданным критериям или целям, куда сложнее.»
«низкий интеллект и высокая креативность (это может быть кошмаром для окружающих — идеи фонтанируют, а мозгов не хватает)»
Большинство новых математических проблем продолжают ряд уже известных. Как говорил З.И.Боревич, «существуют ли они, сколько их, как их найти». Или вот ещё стандартный вопрос: «А что надо изменить в условиях, чтобы «это» стало верным? Или: «Какие из условий необходимы, а какие можно ослабить?» (Арнольд считал такие вопросы жульничеством). А ещё кто-то говорил, что один дурак может задать столько вопросов, что и сто умных не ответят. Или вот «Эрлангенская программа» Ф.Клейна — это просто рецепт постановки новых математических проблем. Наподобие хоть квазиизометрии, про которую тут была статья зачем-то.
По моему убеждению, интеллектуальное решение задачи состоит в способности объяснить его, дать алгоритм решения, а не просто получить ответ. И наоборот, воспринять алгоритм и по нему провести решение. Все остальное — тренировка и натаскивание на угадывание ответа. Интеллекта не больше, чем в крышке от унитаза.
Возможно я ошибаюсь, но ИИ на НС это ИМХО старое доброе фитирование, только теперь с ростом компьютерных мощностей сильно много параметрическое. Если раньше для фитирования сотни опытных точек теоретической кривой нужно было подогнать десяток или того параметров, то теперь и миллион отфитируют, мама не горюй ))
Да, примерно так. Фиттинг исходит из минимизации ошибки, например наименьших квадратов. И решение можно найти методом Мотне-Карло, то есть совершенно случайными бросками. Примерно так и тренируют ИИ. В принципе.
Ваше убеждение станет намного привлекательней, если убрать фрагмент «объяснить его,» ))
Пардон, но именно это положение я считаю ключевым. Вот у нас тут пример, когда нейросеть генерирует разные изображения на примерно однотипные вопросы. Суть проблемы в том, что мы не можем получить от ИИ объяснение, почему она сделала то или иное изображение. А субъект, обладающий интеллектом и им пользующийся, всегда такое объяснение даст. Не факт, что такое объяснение нас удовлетворит. Но это дело житейское. Суть в том, что субъект с интеллектом может свое решение поведение объяснить. А ИИ — нет. Принципиально.
Ну попробуйте спросить у художника, почему он изобразил «это» именно так, а не иначе.
Ещё проще: попробуйте сами что-то нарисовать, а потом объяснить, почему нарисовали именно так, а не иначе.
Вообще про это писал ещё Абеляр в каком-то тёмном веке. Суть в том, что понятиям соответствуют «смутные», по Абеляру, образы, и нейросеть именно так специально устроена, чтобы понимать не вполне определённые слова. Проекция «смутного» образа в конкретный — в рисунок — это процесс, неизбежно включающий случайность — как у человека, так и у нейросети — просто потому, что нейросеть делает это так же, как и естественный разум.
Рисунок-картина — сложное сочетание разных уровней. Но у нее есть некий замысел, цель, которую хочет выразить автор, есть план картины, набор сознательно введенных в изображение символов и пр. Все это человек может объяснить, а ИИ — нет.
Сначала несущественное:
По существу. Действительно, человек обладает самосознанием и может до некоторой степени следить за собственными мыслями. Каждому приходилось участвовать в увлекательной игре «Почему мы об этом говорим», в которой надо отмотать цепочку ассоциаций к началу данной ветки разговора. Художник может сказать что-то типа «Я вдохновлялся Вермеером и Малевичем, и недавно видел щегла на птичьем рынке, колорит хотел как у Коро, ещё надо было срифмовать небо с васильками, композицию взял у Мейссонье, и чтобы было непонятно», но такой репортаж — отнюдь не алгоритм, и сколько бы таких репортажей ни прочитать, рисовать не научишься. Умеет или не умеет нейросеть вести репортажи о своих внутренних процессах, к собственно рисованию отношения не имеет.
”нейросеть делает это так же, как и естественный разум”
Только генераторы случайности у нейросети и естественного разума “слегка” отличаются, я полагаю.
Не знаю, на каком основании Вы так полагаете. Насколько мне известно, нейросеть тупо копирует работу естественного мозга, по крайней мере в плане распознавания/визуализации. Кажется естественным предположить, что генераторы случайности у неё в точности такие же..
Чтобы “тупо копировать” работу естественного мозга, нужно иметь исчерпывающие сведения о его устройстве, а до этого ещё очень далеко. Даже простая генерация случайных чисел – задача нетривиальная и неоднозначная, имеющая множество реализаций. Со случайными образами и искажениями всё, естественно, ещё сложнее, и как это происходит в мозгу можно только догадываться.
Предположу, что Вы что-то знаете о генераторах случайных чисел и поэтому рефлекторно реагируете на ключевые слова. Но увы, я в теме не специалист, и не возьмусь объяснять того, что сам не понимаю.
Вот вам пример интеллектуального решения нобелевского уровня. Вавилов и Черенков обнаружили интересное свечение релятивистских электронов, которое никак не походило на известную к тому времени люминесценцию, обладая характерным острым угловым распределением.
И вот И.М. Франк выдвигает поразительную аналогию, предполагая, что излучение подобно волнам, расходящимся от лодки, когда скорость лодки больше скорости волн. Хотя и источники, и волны совершенно разные (!)
Остальное было делом техники … ИИ с такой задачей справился бы быстрее И.Е. Тамма и И.М. Франка, сделавшими расчеты за одну ночь ))
Не уверен, что ИИ мог бы сформулировать гипотезу. Сделать расчеты быстрее — да. Но с этим справляется и простой калькулятор. ИМХО, в чем бы ИИ мог помочь, так это быстро найти аналогичные картинки. И тем самым подтолкнуть решение проблемы.
С расчетами — конечно, а с выдвижением этой аналогии — вряд ли.
Я имел в виду не выдвижение аналогии, являющейся сутью гипотезы, а подбор аналогичных картинок. Полезная служебная функция.
Согласен
Предлагаю в целях оптимизации обсуждения разделять тренировку и обучение. Тренировка (у человека практически все сенсомоторные реакции) достигается путем многократного повторения, когда в результате проб и ошибок с соответствующим подкреплением итерационно вырабатывается нужное умение-ответ. Например, невозможно по книге научиться ездить на велосипеде или жонглировать.
Обучение же предполагает объяснение-понимание. И именно такой вариант требует интеллекта. То есть интеллект это и есть способность к объяснению-пониманию. Тебе объяснили, как решать задачу. Ты понял. И можешь это делать, даже если никогда до этого не делал. И можешь, в свою очередь, объяснить другому.
Тренировка, то есть выработка условного рефлекса, досталась нам от животных, никаким интеллектом не обладающих. А вот способность объяснять и понимать известна только у человека. И она неразрывно связана с наличием второй сигнальной системы.
Современные ИИ худо-бедно воспроизводят навыки, вырабатываемые путем тренировки. Но к этому способны и животные, за которыми никто наличия интеллекта не предполагает.
Нет, не так. Для того, чтобы решать задачи, недостаточно знания и понимания, нужен обязательно опыт решения задач.
Как это никто не предполагает интеллекта «за животными»? Вроде наоборот, все уже согласны с наличием интеллекта у животных.
Разумеется, тренировка может вырабатывать отнюдь не только условные рефлексы, но также и интеллектуальные способности. Ну это уж вроде настолько очевидно. Попробуйте научиться играть в шахматы иначе, чем играя в шахматы; доказывать теоремы иначе, чем доказывая теоремы, и т.п.
Мысль разделить уровни «понимания» сама по себе правильная, но конкретное предложение никуда не годится. Правильный подход — разделить образное и абстрактное понимание, под абстрактным понимая модель, допускающую формальные преобразования. Например, счёт. Неленивый человек мог бы проверить, способны ли нейросети отвечать на вопрос «сколько?».
Просто у человека обучение и тренировка обычно полностью не разделяются при решении задач и выработке навыков.
Вы только что предлагали их разделить.
В умении играть в шахматы где тренировка и где обучение? Действительно, у шахматистов есть выражение «играть рукой». Можно при желании сказать, что, скажем, сделать развивающий ход с темпом — это условный рефлекс (фактически такие слова были бы поэтической вольностью). Но если бы нейросеть умела только такие вещи (плюс считать варианты), она бы не ушла в шахматах так далеко от человека, как это имеет место в действительности.
Механизмы разные, но при решении человеком задач в той или иной степени обычно задействуются оба. Даже в простой тренировке. Человек может составить план тренировок, проанализировать ошибки и пр.
То есть, скажем, желание убрать фигуру из-под боя Вы на самом деле относите к условным рефлексам? И предполагаете, что за него отвечают совсем другие механизмы, чем, допустим, за тревогу о судьбе «плохого» слона? Или вообще вся игра в шахматы может быть сведена к очень сложным условным рефлексам (а иначе пришлось бы признать, что машина умеет думать)? Примените своё понимание к этой конкретной задаче и дайте объяснение.
Одну и ту же задачу можно решать разными методами. Или их разным сочетанием. ИИ играет в шахматы на рефлексах. За счет памяти и тренировки, которые далеко превосходят все, что может в этом деле сделать человек, ИИ выигрывает. А человек использует при игре как интеллект, так и рефлексы (тренировку). Так устроен человеческий мозг. Интеллект поверх рефлексов, доставшихся от животных.
Всё-таки в щахматной игре используются рефлексы и даже «доставшиеся от животных»? (Ну разве что жажда победы/боязнь поражения.) Любая вообще тренировка, хоть в рисовании, хоть в доказывании теорем, в решении любых задач — это выработка рефлексов? Любой устойчивый навык Вы называете условным рефлексом? И поэтому в любом устойчивом навыке интеллекта не больше, чем в крышке от унитаза? Вы просто сузили понятие интеллекта, чтобы отрицать его в машине — вместо того, чтобы поискать слова и определения, адекватно выражающие различия.
В принципе, конечно, Ваше личное дело. Вообще же адекватное понимание различий необходимо для того, чтобы совершенствовать ИИ. Но, поскольку Вы этим не занимаетесь, это действительно Ваше личное дело. Да и моё тоже.
Мне не интересно искать слова и определения. Считаю это пустой болтовней. Я предлагаю экспериментально проверяемый критерий.
То, что достигается методом проб и ошибок — не интеллект. То, что можно понять самому и передать другому без тренировки — интеллект.
Что до рефлексов, то они бывают очень и очень сложные. Это я Вам говорю как нейрофизиолог. Это просто установление эмпирической связи между событиями. При достаточной мощности можно решать многие проблемы.
Разница (весьма условно) как между аналитическими и численными решениями.
Разумеется, при желании можно расширить понятие интеллекта до такой степени, чтобы он включал и тараканов. Но зачем? ИМХО, интересно понять, чем работа современных ИИ отличается от работы человеческого мозга. Мое определение именно для этого.
Хотите приписать тараканам и современным нейросетям интеллект? Да ради бога. Пусть так. Давайте перейдем к различиям. Какими словами это будет называться, мне не принципиально. Нет ничего глупее, чем спор об определениях.
Дайте свои определения. Только с одним условием. Пусть это будут не просто другие слова, а экспериментально выявляемые критерии.
Предлагать критерий-определение, единственное достоинство которого состоит в лёгкой проверяемости — это означает искать там, где светло, а не там, где потеряли. Я уже не говорю о том, насколько это критерий формальный и поверхностный.
Вместо многописания разных слов, ибо надоело, приведу пример. Пусть нам надо сосчитать туристов в автобусе, чтобы проверить, не потерялся ли кто. Все они — разные и друг на друга непохожи. Первый этап решения задачи — сопоставить им абсолютно одинаковые единички, т.е. абстрагироваться от различий. При этом баулу надо присвоить нолик, как бы он ни был похож на свою хозяйку. Второй этап — единички складываем — это чисто формальная операция в строго формализованном мире чисел. Если получилось не столько, сколько надо, возвращаемся в мир распознавания образов и образной памяти, чтобы понять, кого нехватает или кто лишний.
Как показывает пример шахмат, в формализованной ситуации машина эффективнее человека — даже если ситуация не полностью просчитываема! Значит, если научить машину процессу абстрагирования, машина, вероятно, превзойдёт человека в очень многих областях. Возможно, нейросеть уже сама кое-чему научилась? Это можно проверить, задавая ей задачки.
Замечу — составить на основе решения задачи алгоритм решения аналогичных задач — это тоже задача абстрагирования.
Примерно так в самом простом виде.
Любой анализ начинается с введения определений, основанных на простых и надежно проверяемых критериях. Иначе неизбежно получается просто словесная каша.
Ваш пример не ясен. Анализ изображений — один из коньков ИИ. Нет проблемы натренировать нейросеть решать подобные задачи.
Кстати, что Вы называете процессом абстрагирования? Перевод сложной картинки в систему символов? Так это делает любая программа, цифрующая рукописный текст. Распознавать разные написания букв умели еще допотопные транзисторные перцептроны.
Что касается критерия обучения-тренировка, то его суть можно понять из любого учебника. Сначала параграф с теорией, потом тренировка на примерах-задачах. Так учится человек. При этом, толковый ученик, обладающий хорошим интеллектом, сразу будет решать задачи без ошибок. Потому что понимает. Тренировка ему нужна только для ускорения-закрепления.
А ИИ сразу тренируют угадывать ответ. Следовательно, есть сущностная разница в принципах обработки информации. И животных «обучают» точно так же. И тем и другим невозможно объяснить, чтобы они поняли.
«Любой анализ начинается с введения определений, основанных на простых и надежно проверяемых критериях»
Вовсе нет. Это окончание любого анализа. Например, сначала появился термин «витамины», а потом узнали, что это такое.
«Анализ изображений — один из коньков ИИ. Нет проблемы натренировать нейросеть решать подобные задачи.»
Один из простейших путей совершенствования ИИ: формальная система задана и фиксирована (в данном случае это числа). Ппринципиальная задача — чтобы он сам выбирал или создавал формальную систему для неформальной ситуации.
«что Вы называете процессом абстрагирования?»
Я объяснил, см. «первый этап» и «второй этап».
«это делает любая программа, цифрующая рукописный текст»
Один из простейших вариантов абстрагирования, с фиксированной формальной системой (в данном случае просто конечное множество) и без дальнейших формальных операций. Это как если бы в шахматах поручили ИИ вести запись партии по видеотрансляции.
В математике сначала пример, потом теория, потом задачи.
«И тем и другим невозможно объяснить, чтобы они поняли.»
Насчёт животных это не вполне очевидно. Ну допустим, и что? В чём польза от такой констатации, кроме гордости за человека?
«Принципиальная задача — чтобы он сам выбирал или создавал формальную систему для неформальной ситуации.»
Совершенно согласен. Чтобы сам определял, где надо посчитать по головам,а где — поставить диагноз. Принципиально здесь то, чтобы таких ситуаций в его тренировочной базе не было.
«В чём польза от такой констатации, кроме гордости за человека?»
Прямая практическая польза в выборе конкретной методики «обучения». А то будет, как в басне про кота и повара.
Наличие аналогичных ситуаций в базе, конечно, сильно усложняет проверку, что он умеет, а чего не умеет. Но вряд ли кто-то будет ждать, пока он сам научится — его будут учить. Вопрос в том, можно ли его просто натренировать, или нужны усложнения архитектуры, дополнительные слои (для обучения более высокого уровня) и модули (для стандартных задач). Но скорее всего, и этот вопрос задавать не будут, а будут просто эти слои и модули подключать.
Ну, каждый может попытаться сам увидеть эту пользу.
«Вопрос в том, можно ли его просто натренировать, или нужны усложнения архитектуры»
Полностью согласен. Фокус в том, что мы этого и про человеческий интеллект не знаем. Переходит ли количество в качество, или есть какая-то специальная фишка. Поскольку мы этого не знаем и про человека, то не можем заложить и в архитектуру ИИ.
Не исключено, что может случиться обратный ход. Эксперименты с ИИ могут помочь разобраться в человеческом мышлении. Возможности эксперимента с такими модельными куда больше.
Пока же ИИ воспроизодят только систему тренировок, аналогичную нашим сенсомоторным реакциям. Просто мы их подключаем к другим источникам данных, другим выходным модулям и другим системам подкрепления, чем у человека. И получаем соответствующие результаты.
«Поскольку мы этого не знаем и про человека, то не можем заложить и в архитектуру ИИ.»
Нет такой связи. Понять и придумать — разные задачи.
«Пока же ИИ воспроизодят только систему тренировок, аналогичную нашим сенсомоторным реакциям. Просто мы их подключаем к другим источникам данных, другим выходным модулям и другим системам подкрепления, чем у человека.»
Почему вдруг тренировки сузились только до «сенсомоторных реакций»? Начало уже пропадать понимание, кто что вообще утверждает.
Различие реального интеллекта (искуственного или естественного) и его имитации состоит в том, что интеллект способен генерировать бело-сероящичные содержательные модели, а не черноящечные регрессии/свертки. Просто стат обработка большого числа имперической информации это не интеллект. Переход от общего к частному — это не интеллект, интеллект это способность к переходу от частного к общему.
Вас не затруднит привести конкретный бытовой пример? Поскольку неполная индукция свойственна и животным. На ней, собственно, стоит выработка условных рефлексов. Определенный частный стимул ассоциируется с общей закономерностью (кормление, опасность и пр.). И это определяет генерализованную реакцию организма.
Ещё вариант совершенствования ИИ. Кажется, он даже упомянут в статье.
Кстати, это вовсе не рефлекс. Сплошь и рядом можно видеть, как животное колеблется и размышляет, есть тут опасность или нет.
Это именно рефлекс. Точнее, комбинация нескольких разных рефлексов, если стимул недостаточно сильный и акцентированный. Такие вещи, слава богу, хорошо изучены.
Так ли уж сильно размышление отличается от комбинации нескольких разных рефлексов?
Думаю, нет большого труда натренировать ИИ выдавать общие утверждения в ответ на набор частных.
Собственно, ИИ это прекрасно делает. Диагноз по набору частных симптомов, распознавание лиц по набору частных признаков и пр. Или Вы о чем-то принципиально другом?
В частной, заданной, формализованной ситуации. Допустим, фотокамера находит лица (часто ошибочно) потому что в ней зашито это задание — искать лица.
Грубо говоря, различие в том, может ли нейросеть поставить диагноз собеседнику, если её об этом не просят, а в качестве, допустим, аргумента ad hominem в споре.
Вот именно!
Вот именно. ИИ тренируют решать определенные задачи (задачи определенных типов).
Нас тоже ))
Вести беседу — это не задача «определённого типа». Решать задачу определённого типа — это не только тренировка рефлексов.
Не совсем. Это очевидный перспективный и простейший путь получения практических результатов с помощью ИИ. Но впечатление производит и мы обсуждаем интеллект чат-бота, т.е. и-интеллект «вообще».
Я не много о другом. Тысячи лет люди знали, что предметы падают вниз, использовали это, и даже просчитывали. Но открытие закона всемирного тяготения, описывающего падение не только на Земле или даже на Марсе, а вообще в целом, и движение небесных тел как частный случай — это результат интеллекта.
Диагноз по набору симптомов, это «обычная» регрессия. А в то как ИИ «прекрасно» генерирует и выдает разные утверждения я наигрался достаточно, дальше троечного реферата не взлетает. Даже не знаю, кто его обучил столько воды туда включать в виде фраз «Существует много примеров» или «Находит широкое применение в» и другие тошнотворные обороты, которые даже в троешных рефератах не встречаются, ибо троешники их списывают, а не сами пишут.
Это выдающийся результат выдающегося интеллекта. Таких во всей истории человечества немного.
Это не честно, сравнивать простой ИИ с такими достижениями. Ну да, выдающимся интеллектом нейросеть не обладает. Но ведь и подавляющее большинство людей — тоже. Оно (подавляющее большинство) и на троечный реферат едва способно.
Я потому и спрашивал бытовой пример.
Тут важно что, что бы человек мог прийти к выводу про который он не слышал и не думал никогда до этого. То есть не в результате обучения. С обучением это не интеллект, это дрессировка.
А бытовой пример может быть, например, когда один партнер по совокупности совершенно косвенных признаков догадался, что контрагент его обманывает (изменяет). Многие люди в быту начинают догадываться, при том, что никогда не тренировались и может быть даже не задумывались над этим как задачей.
Человек в любом случае знает, что бывают обманы-измены. И знает про признаки этого. Невозможно поставить чистый опыт с человеком, никогда не слышавшим про измены, за отсутствием таковых людей.
Так что в конечном итоге опять все можно свести к регрессии.
ИМХО, важно другое. Врач обычно может логически объяснить, как он поставил диагноз, какие симптомы основные, почему он исключил другие варианты и пр. А нейросеть — нет. Принципиально. При решении задачи нейросетью не возникает логичной последовательной схемы.
Разумеется, есть врачи, которые ставят диагноз «интуитивно» (на самом деле на основании тренировки). Вот они как раз действуют подобно ИИ.
Когда мне нейросеть предсказывает фолдинг белка, невозможно установить, почему именно такой фолдинг она предлагает. То есть задача вроде как практически решена. Но понимание фолдинга белков не получилось.
Это и есть ключевое различие. Не в умении решить-найти-предложить. А в умении обосновать.
Охота же вам торчать в интернете, когда вокруг лето. Девушки в шортиках.
Проблема репортажа не выглядит принципиально неразрешимой. Не выглядит она и имеющей какое-либо отношение к интеллекту.
Всё это хорошо. Но по Успенскому, теорема Гёделя о неполноте говорит о том, что «в языке существует недоказуемое истинное утверждение».
Мне, вообще говоря, кажется, что человечество (его «западная» часть) и едет, в основном, на этих недоказуемых истинных утверждениях (всё мы вышли из платоновской пещеры — то есть из утверждения, что физико-химические процессы в нашем мозгу имеют отношения к окружающему миру.)
Так с этим-то как быть? Откуда они беруться? И откуда их может взять ИИ? И как у ИИ, вообще, дела с «невыводимостью»?
Это слишком сложные вопросы. Ответов нет даже в обозримой перспективе. Мы слишком мало понимаем и заполняем пустоты символами веры и абстрактными построениями.
Мы даже не знаем, является ли возникновение сознания просто переходом количества в качество, или есть некая специфическая особенность. Нейроны у крысы, обезьяны и человека несколько различаются. Есть и другие особенности. Но являются ли они ключевыми?
Совершенно никаких проблем. Поскольку на данный момент нейросети способны лишь к образному мышлению, но неспособны к логическому, они могут, не моргнув глазом, формулировать абсолютно любые утверждения, хоть ложные, хоть противоречивые, хоть недоказуемые.
Но я говорил о недоказуемых ИСТИННЫХ высказываниях. То есть о принципиально новых вещах, которые и двигают человечество. А пока принципиального отличия ИИ от электронного калькулятора я не вижу — тоже очень серьезный «движок». Во времена моего студенчества у серьезных математиков были люди, которые для них считали — выполняли тяжелую работу. Сейчас, вероятно, таких нет. Да, конечно, в некоторых областях применение ИИ сможет обеспечить качественный скачок — как компьютеры справились с задачами по раскраске.
Но человечество двигает принципиально новое. Которое ИИ взять неоткуда.
Говорили Вы о теореме Гёделя, которая тут совершенно не при чём — Вы использовали слово «недоказуемое» в разных смыслах. Я Вам говорю, что нейросеть может делать любые утверждения, в том числе истинные. Если Вы хотите сказать, что нейросеть не способна придумать новую религию или выдвинуть новую научную гипотезу — это так, но к истинности никакого отношения не имеет; и человеческой цивилизации, в частности западной, ничто не мешает, не мешало и в будущем не помешает выдвигать ложные недоказуемые (и неопровержимые) утверждения.
Попробую объяснить, что я имел ввиду (не знаю, получится ли).
В 1967 г, после окончания МГУ, я начал заниматься спектроскопией. И впервые столкнулся с теорией групп. Для меня было новостью, что математика занимается не только числами, но и операциями. И, вероятно, я тогда — когда открыл изложение начал теории групп — впервые задумался над тем, как происходит формирование теории. Вот передо мной определение группы и основные аксиомы. Но у Галуа-то их не было, когда он их разрабатывал! Откуда они взялись? Откуда взялись основания, на которых стало возможным что-то построить? Судя по реакции окружающих (Пуассона, например), никакой «очевидности» там не было. И я не думаю, что был простой перебор — в голову Галуа «случайно» приходило множество идей, и он на всех идеях пробовал что-то построить и неудачные отбрасывал. Это слишком длинный путь.
Одно дело физика — открытие, например, Фарадеем электромагнитной индукции. Это почти понятно — «свезло» Фарадею (шиш бы ему свезло, если бы он этим не жил).
Но тут-то, с группами — речь, действительно, о «высказываниях». Об идеях. Принципиально новых.
Галуа такую идею сгенерировать мог. ИИ может это сделать, если натаскивать его на идеях, уже бывших в употреблении?
«Галуа такую идею сгенерировать мог.» Нечестно сравнивать выдающиеся идеи выдающихся интеллектуалов с ИИ. Таких людей и таких идей в истории человечества вообще немного. Подавляющее большинство людей, тоже обладающих неким интеллектом, ровно так же не способны сгенерировать подобных идей.
Простая статистика говорит, что великие умы и великие идеи — большое исключение из общих правил. То же самое относится к творческим художественным способностям. Все это редчайшие случаи, непонятно на что подвязанные. И уж явно не имеющие ничего общего с рядовым человеческим интеллектом.
Рядовой шахматный мастер или «средний» математик произведут потрясающее впечатление на любителя или студента. Я бы сказал, что разделять на массу и небожителей — это сильное упрощение.
Кстати, Ньютон, когда говорил,что стоял на плечах гигантов, имел в виду людей достаточно неожиданных. Звание гения даётся с некоторым произволом…
Совершенно верно. Специальные шахматные программы играют лучше человека. А тут чат-бот, предназначенный и тренированный для простой болтовни. Стоит ли ожидать от него чего-то большего?
«Стоит ли ожидать от него чего-то большего?»
Поскольку он натренирован на всём интернете, что человеку недоступно, то почему бы и не ожидать от него весьма многого. Особенно когда и если он поумнеет.
Интуитивно мне кажется, что Тьюринг был прав со своим тестом, и совершён решающий прорыв. Хотя надо добавить ещё очень существенные вещи. Что спорить — посмотрим.
Странно, что Вы вспомнили в этой связи Галуа, а не Абеля. Похоже, что Вы не читаете статей Арнольда, на которые даёте ссылки.
Группа — это обобщение чисел. Целые числа — это простейшая группа. Можно ли научить ИИ обобщать и как это сделать — я не знаю.
Гениальная идея может иметь характер смены гештальта, взгляда на имеющиеся факты под неожиданным углом, даже с исключением части фактов из рассмотрения. Не вижу причин, почему ИИ не смог бы когда-нибудь рождать гениальные идеи такого рода. Может ли современный чат-бот родить гениальную идею? Кажется маловероятным, но он уже немало всех удивил…
Пожалуй, свойство гениальной идеи — неожиданность для большинства; чтобы на ней настаивать, гений должен обладать высоким мнением о самом себе, чего у чат-бота быть не может — он, по-видимому, по натуре конформист. Но если дать ему логику (а она у него железная), тогда у него будут очень мощные идеи (например, как в шахматах), даже если на деле они будут построены из чего-то известного.
То есть, я, не читая, выбирал нужную цитату? Но я не обладаю «мистическими» способностями. Вообще говоря, Ваш ответ заставляет меня подозревать Вас или в заботе о моём образовании, или в желании «поставить меня на место» (нижайше прошу прощения. если это не так). По первому пункту сообщая следующее. «Исторически» о группах я узнал из книги Л.С. Маянца «Теория и расчет колебаний молекул», АН, Москва, 1960 (со Львом Александровичем Грибовым я ознакомился только в 1975г, хотя с работами его и его коллег я познакомился в 1968 г.). Там не было ссылок ни на Галуа, ни на Абеля. Но о Галуа — о его жизни, а не о теории групп — я слышал от Юрия Фомича Мета, который в старом здании МГУ читал нам, ученикам 9 и 10 классов лекции по математике (потом он читал лекции моему сыну). О Галуа он рассказывал, о Абеле — нет. С Абелем я познакомился, действительно, по рекомендации Арнольда (в которого я влюбился в 1980 г, когда прочитал о КАМ-теореме. «Теория катастроф» усилила эту любовь) и по книге В.Б. Алексеева «Теорема Абеля в задачах и решениях» (к которой В.И. тоже имел отношение). Строго говоря, это совсем неинтересно — что я читал и что не читал — я химик, большую часть жизни занимавшийся анализом контаминантов, да ещё и пенсионер. Так что Вы уж простите мою серость. Что же касается второго пункта — о «месте», то совершенно искренне уверяю Вас — я своё место давно знаю. И ни на какое другое не претендую. Но длительное — пятьдесят лет — вращение в научных кругах заставляет меня думать, что я знаю место и научно-технической публики. Но я совершенно не понимаю, зачем это обсуждать здесь? Что же касается предмета обсуждения (боюсь, что о числах — слишком узко) — вопрос остается — откуда ИИ родит новую идею, если тренировка на старых? А вот старые… Подробнее »
«о числах — слишком узко»
Ну так зачем же Вы тогда пишете о числах, группах, Галуа, Абеле, Арнольде, теореме Гёделя? Зачем Вы пишете о том, чего не понимаете?
Кстати, о числах я же уже объяснял Вам не так давно, что числа — это тоже операции. И наоборот, совокупность операций можно рассмотреть как объект с определёнными свойствами. И то, и другое можно назвать сменой гештальта. Как видите, сменить гештальт — это совсем не просто, даже если вам всё объяснили. А вот новых оснований тут никаких нет.
Туманная какая-то у Вас связь между новизной и моралью.
Смотря что понимать )) под пониманием. Вот Фейнман говорил, в контексте квантовой механики, что понимание это привычка и умение использовать.
Разумеется, все зависит от контекста. Но «умение использовать» мне нравится. Привычка же вырабатывается тренировкой. Можно привыкнуть (натренироваться) использовать и то, что не понимаешь.
Я бы сказал, что понимание есть умение в принципе использовать и без тренировки. То есть без метода проб и ошибок.
Проблема в том, что мы уже вышли такой уровень знаний, что «понимаем (в указанном выше смысле) то, что не в силах вообразить». Это говорил в интервью Л.Д. Ландау (есть в сети). Поэтому пример с черенковским излучением, когда пригодилась классическая аналогия, уже не работает на квантовом или релятивистском уровнях. Будет ли ИИ тут интеллектуально эффективнее? Ведь не факт, что ему нужны классические аналогии, наш повседневный «здравый смысл».
Да, согласен. Причем с двумя восклицательными знаками. Суть в том, что мы совсем не понимаем, как работает человеческий мозг. Только отдельные элементы из большого пазла.
ЗЫ. Я стараюсь пользовать проверяемые вещи, а не философские абстракции. В моих понятиях тренировки и обучения все проверяемо экспериментально.
Если у вас есть, условно, тысяча экспериментальных точек, то их описание с помощью 100 параметров это модель, с помощью 10 — теория, а с помощью одного — парадигма.Помимо тренировки и обучения нас интересует еще и обобщение. От природной лени, наверное ))
Будет ли ИИ ленив?
Современный ИИ будет вести себя ровно так, как его натаскают при тренировке. В этом и суть. ИИ воспроизводит те модели поведения, которые у него в тренировочной базе со знаком +. Он итерационно сокращает число минусов.
Посмотрите нейросеть «Жириновский».
Интересный комментарий дал Г. Каспаров в интервью Дудю насчет ИИ в шахматах. Он сказал, что ИИ играет ровнее, т.е. меньше делает ошибок, но и меньше «гениальных» ходов.
В свое время было два подхода в научении ЭВМ играть в шахматы. Группа Ботвинника учила быстро перебирать огромное количество вариантов. Группа Конрода — еще и оценивать позицию. Именно эта группа (программа Каисса) выиграла первый поединок СССР-США между машинами в шахматы.
Насколько я помню, есть три основные эпохи. Эпоха детеминированных алгоритмов, эпоха обучения на человеческих базах и эпоха самообучения. Но во всех случаях это тренировка, тренировка и еще раз тренировка.
Насколько я понимаю, нейросеть принципиально отличается от детерминированного алгоритма. Вроде бы она по самой своей природе недетерминирована. И какая может быть тренировка у алгоритма?
У детерминированного алгоритма масса настраиваемых параметров. Которые подбираются методом проб и ошибок.
Удивительное мнение! Я же слышал, что игра нейросети (возможно, в целом) производит впечатление некоего высшего разума, как если бы сел играть инопланетянин или бог с Олимпа. Сам я оценить не в состоянии.
У Ботвинника был более любопытный подход — он предлагал учитывать индивидуальные интересы каждой фигуры, как если бы это был автономный юнит. Программа Ботвинника, наоборот, должна была, руководствуясь некоторыми соображениями геометрического типа, сразу предлагать наиболее перспективные ходы.
Кстати, я вспомнил, что уже видел этот тезис на одном шахматном форуме, тогда речь шла о победе некоего Ниманна над Карлсеном, после чего Карлсен обвинил противника в читерстве. Логика тут такая: делает гениальные ходы — значит, читер; не делает гениальных ходов — ну так ясно же, что читер.
Мы не то что-бы не понимаем, мы просто не знаем этого. Мало фактуры из-за сложности объекта и этики.
Еще пара замечаний по теме. До появления ИИ мы имели только человека и животных для сравнения. Критерий разделения был прост — способность воспринимать и генерировать членораздельную речь. То есть на наличие второй сигнальной системы. Другие вопросы были не актуальны, поскольку животным в принципе ничего объяснить не возможно. И расссказать они не могут.
ИИ речь воспринимает и генерирует. Только тут и возникает вопрос о том, понимает он, или просто ловко подражает? Критерий «обучение vs тренировка» становится следующим пробным камнем на принципиальные возможности не человеческого интеллекта.
Пример шахмат показывает, что возможности нечеловеческого интеллекта больше. Если придавать слову «возможности» его естественный смысл. Видимо, «принципиальные возможности» — это что-то другое. Как в анекдоте — «зато я богат духовно».
.»Критерий разделения был прост» — далеко продвинул познание этот критерий? Много было пользы от этого разделения? Он к тому же неверен. Умная собака, говорят, знает до 200 слов, шимпанзе учат языку жестов и т.д.
Понимает ли собака слово «гулять» или просто натренирована ассоциировать? А в чём разница?
Возможности калькулятора считать давно больше, чем у человека. Возможность решения задач вообще не может быть мерилом интеллекта. Поскольку многие задачи можно решать простым подбором, тренировкой или тупо следуя заданному алгоритму.
Собака не понимает слов. Ассоциация между словом и прогулкой возникает у нее только в процессе многократных повторений временной связи слова и события. Разницы между «пойдем гулять» и «не пойдем гулять» собака не понимает, если ее специально не тренировали. Синонимов к слову гулять собака не понимает, если ее специально не тренировали. Упоминания слова «гулять» в ином контексте (мы вчера ходили гулять) собака не понимает.
Все это и многое другое выяснили нейрофизиологи в те времена, когда разделение было только по речевым возможностям.
Современный ИИ работает примерно так же. Только его вычислительные возможности на речевые стимулы лучше настроены, и его можно обучить адекватной реакции на более сложные стимулы.
«Возможность решения задач вообще не может быть мерилом интеллекта.»
Просто повторю это ещё раз.
Ну да, собака может не понимать более сложных фраз и контекста, почему из этого следует, что она не понимает слова?
Собака, кстати, может и сказать «Ну пойдём гулять» — по-своему, и она видит, когда человек её понял.
Тогда бы ИИ реагировал одинаково на одинаковые стимулы.
В общем, думаю, каждый, у кого была собака, может составить собственное мнение по этому вопросу.
Собака может «выучить» значения слов и их сочетаний. Путем многократных повторений. Так же, как самый обделенный интеллектом студент может вызубрить доказательство сложной теоремы. Но это не есть понимание.
Это разница между зубрежкой и пониманием.
Не думаю, что так просто с животными (хотя, конечно, мои дилетантские мысли мало стоят). Муравей, как Вы знаете, проходит зеркальный тест и может передавать информацию объемом 64 бита. И очень успешен — биомасса муравьев превышает биомассу всех остальных.
А об условных рефлексах такая история.
Я со своей спаниелихой гулял без поводка. Специальность спаниеля — бежать впереди хозяина (метров на 10-15) по синусоиде. Когда одевал поводок, она всегда шла рядом со мной и не сводила с меня удивленных глаз — мол, что случилось. Но никаких негативных чувств к поводку не испытывала.
А когда сына загребли в армию, мы раз в месяц-два ездили к нему в учебку (в Калугу). И я отвозил собаку к тетке. Тетка у меня вторая мать, к собаке относилась очень трепетно, кормила одним мясом. И очень обижалась на собаку, которая бросалась ко мне, когда я за неё приезжал, и не отходила ни на шаг. Но дело не в этом.
Дело в том, что когда я хотел отвезти собаку к тетке второй раз (то есть никаких тренировок) и взял в руки поводок, она забралась под шкаф и начала на меня злобно рычать — мол, не подходи ко мне, никуда я не поеду. Предъидущий раз был месяц назад — и она запомнила! И связала поводок и поездку к тетке. Условный рефлекс? — скорее, мышление. Да, конечно, она каждый раз смирялась с поездкой, и никакой агрессии не было — были жалобы на судьбу, но каждый раз она высказывала своё недовольство.
Будучи собачником, могу рассказать десяток подобных историй. Но дело в том, что именно собаки были классическим объектом изучения рефлексов (Павлова хотя бы вспомнить и как собак кормили в блокаду вместо того чтобы ….). Я не большой знаток этих работ, но кое-что помню. У высших животных, и в особенности собак, давно живущих с человеком, обостренное восприятие нашего поведения. Принцип тот же, как и резкое обострение слуха у слепых. Не умея «понимать» собаки обладают потрясающей способностью «замечать». Замечать малейшие оттенки голоса, телодвижений и пр. Шерлок Холмс нервно курит в углу со своей наблюдательностью.
Собаки ведь наблюдают за нами постоянно. Это огромный объем тренировки. Склонность к которой наследственна в результате многовекового отбора живущих с человеком собак. И они легко замечают то, что мы со своей опорой на слова (вторую сигнальную систему по Павлову) не замечаем совершенно.
Ваш случай скорее всего из той же оперы. Вы знали, что будет повторяться неприятная для собаки ситуация. Собака это заметила по оттенкам голоса и поведения, которые Вы сами не замечали, и отреагировала.
То есть это (скорее всего) пример решения той же задачи не путем мышления, аналогичного нашему, а путем тренировки иных способностей. Прямая аналогия с ИИ.
ЗЫ. Моя нынешняя собака не любит ошейника. И обмануть ее обычно не удается. Она чувствует, когда я ее зову, чтобы надеть ошейник. Хотя я стараюсь делать это так же, как если хочу просто погладить, и ошейника она не видит.
ЗЗЫ. Подобные вещи (чувствительность собак в отношении хозяина), насколько я помню, воспроизводились многократно в исследованиях.
Нет, так не получается. Когда я отвозил собаку в первый раз, мне и в голову не могло прийти, что ей что-то не понравится. То есть, никаких негативных эмоций у меня не было. Да и на ошейник ей было всегда наплевать— ну, чудит хозяин, не велика беда. Она у меня не любила без своих оставаться. И с первого раза смикитила — раз ошейник, то целый день свои где-то пропадать будут. А вдруг они вообще не вернуться?
Это не рефлексы. Да и вообще — среди собачников мало кто в Павлова верит. Они ведь «ведут» себя. И часто это демонстрируют — одобряют или не одобряют. А собачья ревность или обида— тоже рефлекс?
Историй про выдающиеся способности любимых собак много. Они чем-то напоминают истории про чудесное действие гомеопатии. И природа ровно та же самая.
Вы просто недооцениваете мощь отлаженной эволюцией системы сложных рефлексов. Так же как адепты гомеопатии недооценивают реальные лечебные возможности плацебо.
Память у собак есть. Это точно. Достаточно один раз собаку ударить, и она прекрасно запомнит. Но это не выработка нового рефлекса. Это срабатывание давно сформированного рефлекса.
Попробую на пальцах, хотя это и сложно объяснить людям, в нейрофизиологии не работающим. Посмотрите боксеров, теннисистов, циркачей. Все действия на отработанных рефлексах. Интеллект контролирует только стратегию поведения. Попробуйте вообразить объем сенсорной информации (визуальной , тактильной, слуховой, вестибулярной и пр.), которую мозг обрабатывает в реальном времени и управляет скоординированными движениями очень сложного мышечного аппарата. Причем не просто по программе, а реагирует на мгновенные изменения обстановки.
Удивляющее нас умение нейросети играть в шахматы — детские игрушки по сравнению с этим. Клеток, фигур и ходов ничтожно мало.
Просто человек эволюционно не предназначен для игры в шахматы. Это не естественная деятельность для мозга. А сенсомоторика — естественная, эволюционно запрограммированная работа. И отточенная система рефлексов работает круто.
Примерно то же у собак. Отточенная система рефлексов. Которую нам трудно представить. Поскольку у человека она атрофирована. Ее в значительной степени заменяет и подавляет интеллект.
Денис Борисович!
Я всё это знаю. (Я хотя и дилетант, но дилетант широкого профиля, да и дети биологи. Да и работал в области защиты окружающей среды, а это и к биологии относится. Так что положение обязывает). Но — не верится. Как Вам в эволюцию.
Да и 64 бита, которыми обмениваются муравьи, тоже в рефлексы не очень вписывается.
А в чем проблема с муравьями? У них порядка миллиона нейронов. Сопоставимых по вычислительной мощности с суперкомпьютерами. А есть еще глиальные клетки. Роль которых в когнитивных процессах только начинает оформляться в науке.
То, что не верится — понятно.
А может, вовсе не заменяет? Может, человек и собака так и мыслят, как правило, одинаковым способом? Может быть, «очень сложные рефлексы» не то, что неотличимы, но и на самом деле ничем не отличаются от работы человеческого мозга во многих, в том числе «чисто интеллектуальных», ситуациях? Да разве не это же самое Вы и утверждаете?
Частично заменяет. Частично дополняет. Это проверялось.
Самый простой пример — развитие анализа звуков и пространственной памяти у слепых. Возможность ориентироваться на зрение дополняет, но и существенно подавляет развитие других систем навигации. Хотя физически у зрячих все тот же аппарат есть.
Могут ли быть очень сложные рефлексы сутью работы человеческого мозга — неизвестно. На имеющихся примерах нейронауки этого не видят. Но вполне возможно, что известные нам сложные рефлексы у животных просто недостаточно сложны. И переход количества в качество возможен. Кстати, развитие ИИ может в будущем дать ответ на этот вопрос.
Альтернативная возможность, что есть в устройстве человеческого мозга какая-то фишка (пока нам не известная) без которой такой переход неосуществим.
«Могут ли быть очень сложные рефлексы сутью работы человеческого мозга — неизвестно.»
Всё в какую-то кучу и кашу. Абстрактное, логическое мышление ну никак не может быть рефлексом. Есть ли что-то общее у рефлексов и владения языком? Вопрос уже не актуален, ибо языком ИИ владеет. Владеет ли ИИ языком так же, как и человек? (У Вас получается, что должен владеть хуже, интеллект мешает). Может ли ИИ самостоятельно научиться абстрактному мышлению? Это интересные вопросы.
«Прямая аналогия с ИИ.»
Но ведь ИИ не собака, он не может замечать никаких нюансов и оттенков. Он имеет дело только с очень грубым сигналом в виде заданного вопроса. Если бы была аналогия, ИИ всегда отвечал бы одинаково на одинаковые вопросы.
Разница между зубрежкой и пониманием по Фейнману в неумении/умении применять теорему в решении задач.
Тонкое место. Алгоритмы решения стандартных задач тоже можно вызубрить. Помню, еще в школе учили формулы тригонометрии. Их много всяких, но учить мне было лень. Я многие выводил на ходу, когда были нужны. В общем, внешне отличить понимание от вызубривания бывает непросто. Учатся зубрилы вполне успешно.
Один из способов различить — может ли студент внятно объяснить процесс решения задачи. Или просто запомнил, когда куда какую формулу подставлять. Вот как раз ИИ этого не умеет. Невозможно узнать, почему нейросеть выдает тот или иной ответ. Просто потому, что логического последовательного решения задачи там нет.
Объяснение причинности это коненчо хорошо, и все мы к этому стремимся. Но все же, это уже вторичное, по отношению к первичному интеллектуальному «озарению». Сперва это озарение приходит как некая добавка к сумме неполных элементов, а потом начинаешь проверять. Может быть ошибка, а может и открытие (пусть и маленькое). По сути, нужен перебор разных «глупых» решений/предложений, что-то вроде искуственного мозгового штурма, когда выдвигаются и проверяются все мало-мальски правдоподобные гипотезы. В реальной жизни тут бывают полезны живые обсуждения, семинары, конференции и т.д.
…Не знаю, почему так недолюбливают зубрежку, мне кажется это педагогически не верно — порицать её. Что бы понять, нужно сперва запомнить то, что хочешь понять. Зубрить это не сложно. Всегда использовал этот метод, когда надо было быстро разобраться. Сперва зазубриваешь, потом идешь на второй или н+1ый круг, и начинает доходить. Каждое новое прочтение идет уже с другого уровня, хотя бы не нужно отвлекаться на терминологию, примеры и т.д. А она бывает очень специфическая, даже контринтуитивная для новичка. Возьмите, например, школьный «квадратный трехчлен». Если не знать что это, можно очень долго пытаться расшифровать.
То, что Вы написали про «озарение» и его последствия есть пример осознанно сформированной и обоснованной стратегии. То есть пример интеллектуальной деятельности.
Сам по себе факт тренировки-зубрежки совершенно необходим в общем процессе. Кто бы спорил. Проблема возникает, когда при ее помощи начинают решать задачи, которые в общем процессе полагается решать другим методом.
Ну как с определенным интегралом. Полагается брать через первообразную. Но можно ведь посчитать и численно, если комп под рукой. Ответ будет правильный, но зачет не поставят.
Тоже необязательно. Стратегия изучения чего-то не только что может, но даже как правило формируется методом проб в процессе изучения.
Я Вам уже объяснял. У человека всегда в той или иной степени задействованы обе системы. Элемент тренировки-зубрежки есть всегда. Это банально. Младенец вообще ничего не умеет. Но ребенок начнет пытаться планировать свои действия, определять их последовательность, а щенок и котенок — нет. Принципиально.
Человек способен проанализировать источник своих ошибок, а собака — нет.
«У человека всегда в той или иной степени задействованы обе системы.»
Конечно, не всегда. Чтобы что-то спланировать, или проанализировать источник своих ошибок, человеку всегда надо сделать отдельное значительное усилие. Также усилие надо сделать, чтобы понять словесное объяснение. Ну я не специалист, конечно, но явно имеется ощущение, что всё это — некие дополнительные возможности, а вовсе не постоянная и необходимая компонента мышления.
Взрослый человек берётся что-то изучать. Скажем, английский язык. Пробует учить песни на английском. Пробует читать адаптированные тексты. Пробует читать Moskow News. Пробует читать New York Times. Пробует развешивать карточки со словами. Пробует учить по 10 слов в день. Пробует раз в неделю разговаривать с женой только по-английски. Наконец, какой-то метод даёт ему ощущение результата. Где тут хоть на грош планирования стратегии? В чём принципиальное отличие от щенка или котёнка?
Я немного запутался.Теперь считается, что зубрёжка — это формирование сложного условного рефлекса? А мышление — это нечто другое? Тогда владение языком явно оказывается в области сложных рефлексов. И вопрос нужно ставить не о том мыслят ли собаки, а том насколько много людей способны мыслить.
Тут все зависит просто от определений. Что мы называем интеллектом, способностью мыслить и пр. Можно ведь сказать, что собаки и ИИ мыслят, только не умеют мыслить логически. Пусть так.
Развитие ИИ показало, что способность воспринимать и генерировать связную речь можно получить путем тренировки. Раньше это считалось исключительным свойством человеческого интеллекта.
В той терминологии, которую я здесь использую, интеллектом обладает любой человек. Зубрежка — есть просто тренировка рефлекса. Но решение зубрить, сколько, когда и как — все это человек решает с использованием интеллекта. То есть у любого человека интеллект котролирует осознанную стратегию поведения.
Боксер бьет и двигается на отработанных рефлексах. Но стратегию на бой и ее изменение в ходе боя контролирует интеллект.
Является ли интеллект чем — то особым, требующим специальной архитектуры, или просто количество рефлексов может переходить в качество — нам еще предстоит установить.
Как мне кажется «осознанная стратегия поведения» — это скорее про свободу воли, а не про интеллект. Ожидать «свободы воли» от современного ИИ странно и это, вероятно, даже хорошо. У животных же со «свободой воли» вроде бы неплохо. В том смысле, что субъективное чувство осознанности собственного поведения человек обычно переносит на других людей, наблюдая их поведение. Так же и владелец собаки переносит свои внутренние ощущения на питомца, поскольку поведение собаки этому соответствует. Можно предположить, что «осознанная стратегия поведения» весьма полезна для коллективной охоты и социального поведения в стае. Вероятно, она начала формироваться у далёких предков гордых собой сапиенсов.
Я имел в виду другое. Возможность планировать, а не решать каждый конкретный ход.
Есть знаменитая книжка про шимпанзе, где приводится свидетельство, по мнению автора, способности к планированию (политических интриг). Якобы некий самец, притом самый старый и слабый в стае, двигался не к ближайшей цели — повышения статуса до беты, а, минуя её, к отдалённой, и действительно промылился в альфы.
Есть куча свидетельств об эффективности гомеопатических препаратов. Причем сами свидетельства не лживы. По мнению авторов, гомеопатия лечит.
Вы считаете, что Вы что-то опровергли этой аналогией?
Но на самом факте я не стану настаивать, доказательства там были шаткие.
«Боксер бьет и двигается на отработанных рефлексах. Но стратегию на бой и ее изменение в ходе боя контролирует интеллект.»
Стратегию на бой контролирует тренер, боксёру не до стратегии.
Соглашусь, значение хорошего секунданта велико. Спортсмену же некогда думать, рефлексы быстрее.
«решение зубрить, сколько, когда и как — все это человек решает с использованием интеллекта.»
Всё это записано у него в вопросах и расписании.
Неубедительно. Возможно, не умеет по другим причинам.
Неверно. Я твёрдо убеждён, что обделённый интеллектом студент не сможет, не имея понимания, воспроизвести даже простейшее доказательство на языке «эпсилон-дельта», обязательно собьётся. Но это понимание вырабатывается в практике обращения с этим языком. Оно примерно аналогично тому, что в шахматах называют «короткой тактикой». И наоборот, одарённый студент, зная идею доказательства, но не имея практики, тоже ничего не достигнет. Ну очень одарённый может и решит, изрядно помучившись.
Ну вот простая проверка. Найдите тут в ТрВ упомянутую статью о квазиизометрии и попробуйте её понять. А она написана максимально элементарно и популярно.
И еще разок. Всегда в той или иной степени у человека задействованы обе системы. Но понимающего студента от зубрилы отличить можно. Хотя и не с первого взгляда. Для этого может понадобиться время и специальные допвопросы опытного преподавателя. Да, этот опыт приходит преподавателю с тренировкой-практикой. Но преподаватель понимает, что разница существенна.
«преподаватель понимает, что разница существенна.»
Если оба задействуют обе системы, то должен быть непрерывный спектр этих разниц, и тогда граница устанавливается по произволу преподавателя.
Человека, который всегда мыслил бы в точности как ИИ, действительно не может существовать, но каждый человек в какие-то моменты бывает неотличим от чат-бота, а бывает и неотличим от собаки. В этом всё дело. Поэтому действительно можно различать три способа мышления — рефлекторное, образное и абстрактное. И можно ставить вопрос, способна ли собака к образному мышлению, и соответствует ли образное мышление ИИ образному же мышлению человека. А тот факт, что человек время от времени способен подумать глубже, никакого отношения к этому вопросу не имеет.
Впрочем, можно и задавать вопрос, как они взаимодействуют у человека.
Если мы говорим об одном слове, то в чём разница между «выучить значение» и «пониманием»? Собака выучила, что слово «гулять» (это сложный образ, ведь слово всегда произносится по-разному) означает прогулку (это тоже сложный образ, двух одинаковых прогулок не бывает), это в точности и означает, что она понимает это слово.
Что касается доказательства сложной теоремы, то вызубрить его нельзя вообще, а «понять его» может означать очень разные вещи. Анекдот (М.Клайн приписывает его Попперу):
«Существуют три уровня понимания доказательства. На самом низком уровне у вас появляется приятное ощущение, что вы поняли ход рассуждений. Средний уровень достигается, когда вы можете воспроизвести доказательство. На верхнем, или высшем, уровне вы обретаете способность опровергнуть доказательство.»
Насчет высшего уровня ИМХО не анекдот а весьма нетривиальное суждение. Именно аргументированное оспаривание принятых истин всегда составляло двигатель науки. (?)
На деле это чёрный юмор. По идее, доказанное в математике должно образовывать твёрдый кристалл, не подлежащий пересмотру. А бывает всякое.
Бывало ли так, что обнаружение дыры в класическом доказательстве послужило прогрессу? Вроде что-то такое есть у Литтлвуда… не помню. Самые же крупные подвижки в сторону большей строгости доказательств — обоснование анализа и обнаружение того, что непрерывная функция не обязана быть дифференцируемой — по сути ничего в математике не изменили. Это очень глубокая тема.
Маленький офтоп про собак. Попалась как-то в прессе (то есть за достоверность не ручаюсь) сообщение о работе неких (каких не помню) «британских ученых». О развитии мышцы, позволяющей собаке преданно вылуплять глазки. У волков эта мышца анатомически присутствует, но совершенно не развита. Дальше проводится сравнение пород собак, которые, по имеющимся данным, были приручены в разное время. Прослеживается четкая корреляция. Чем дольше порода собак живет с человеком, тем больше у нее способность преданно вылуплять глаза. Теория адаптации в действии. Умение умильно глядеть на хозяина и строить ему глазки повышает шансы на выживание-размножение. Неспособные отбраковываются… А вы все про интеллект и мышление…
Это прямо какой-то ламаркизм-мичуринщина и лысенковщина ))
Обычное дело. Вас же не удивляет выведение пород собак с весьма экзотическими фенотипами. Здесь же просто изменение свойств пород произошло без сознательного вмешательства человека.
Вижу, моё предложение «заниматься летом, а не интернетом» нашло отклик. Добавлю пару мыслей, пришедших в голову за это время.
Ранее я предлагал умение считать как критерий умения абстрактно мыслить. Но нетрудно сообразить, что считать в пределах небольших чисел можно образно, хоть бы и на пальцах. Следовательно, для проверки надо предлагать ИИ задачу на счёт с большим ответом — люди не задают друг другу такие задачи, поэтому вряд ли её можно решить по аналогии из сети.
Предложу также пример, как могли бы, по моему мнению, выглядеть правильные определения (без претензии на то, что именно эти определения правильные), или, если угодно, критерии.
Тренировка — настройка слоя перцептронов минимальной толщины (т.е. матрицы из неких минимальных перцептронов, что бы это ни значило).
Практика — настройка многослойной системы, внутренние процессы в которой оказываются непрозрачны и результат неоднозначно определён.
Рефлекс — устойчивый путь от впечатления к действию (включая, отдавая дань памяти собаке Павлова, изменения в химии организма, но исключая изменения в мозгу, иначе получится, что условный рефлекс — это всё, что происходит в мозгу, а такое определение просто лишает слова смысла).
Определение тренировки получилось перпендикулярным определению рефлекса, гм.
Образ — устойчивая структура в мозгу, имеющая «горизонтальные» связи с аналогичными структурами (пример — связь образа и слова, которое ведь тоже образ) и не обязательно (если образ не является частью условного рефлекса) связанная с каким-либо действием.
В общем, чтобы сформулировать правильные определения/критерии, надо знать о работе мозга почти всё…
Мне просто поднадоело. Все, что я хотел высказать — высказал. А читать тут курс нейронаук — увольте.
ИМХО. Ваша система определений порочна именно в том, что она пытается определить одни неочевидные понятия через другие, еще менее очевидные.
На самом деле смысл определений в том, чтобы по ним можно было экспериментально проверить, относится ли явление к данному типу или нет. То есть дать связь между новыми понятиями и уже известными. Иначе возникает порочный круг и получается пустая болтовня ни о чем.
По мере развития знаний и появления новых экспериментально проверяемых критериев, определения могут уточняться или переформулироваться. Это нормально. Но всегда сохраняется принцип проверяемости. Новое определяется через известное. Так в физике и математике. В науках, где определения даются для того, чтобы ими пользоваться.
Вроде ясно сказано, на что эти определения претендуют, а на что нет, и зачем они тут. Понимание написанного — сложная задача. Требующая отдельного усилия. Которое нуждается в тренировке. Ну ладно. Наверное, я и в самом деле не разжевал. Ключевые слова — «надо знать». Пользоваться этими определениями я, естественно, не предлагал, по причине их чистой умозрительности. Ну вот может такой путь прогресса — изучить, как работает ИИ, проще, чем живой мозг. С ИИ можно снять все параметры, а как он устроен, спросить того, кто его сделал. Изучив его, можно строить гипотезы о живом мозге (на основании сходных с ИИ проявлений), извлекать из них проверяемые следствия и проверять.
Если Вы хотели завершить дискуссию, зачем было упоминать математику? Ну ладно. В математике, проверить, удовлетворяет ли явление данному определению, может быть очень непростой задачей. Например, является ли трёхмерная гомотопическая сфера топологической сферой? (Однако математика не сводится к проверке определений — это так, на всякий случай.) Определения типа «сложение — это операция, обозначаемая (вертикально расположенным) крестиком» — экспериментально проверяемы, но в математике (не знаю, как насчёт физики) такие неупотребимы.
«Связь между новыми понятиями и уже известными», «определение нового через известное» — это не определения и не критерии. Это утверждения. Утверждающие, что новое выражается определённым образом через старое (т.е. новым не является). В математике такие утверждения нуждаются в доказательствах. Если доказательство есть — получается теорема, нет — гипотеза. Но если говорят, что это — критерий, и никакого доказательства вообще не нужно, такого в математике не бывает и слова соответствующего нет. Но можно сказать, что это априорное, предвзятое утверждение. В нейронауке они, я вижу, ещё и не очень правдоподобны.
Порочные круги — это хорошая, правильная тема, но это не прямо сейчас, я вам не Бертран Рассел.
Зайдём ещё с такого бока.
«На самом деле смысл определений в том, чтобы по ним можно было экспериментально проверить, относится ли явление к данному типу или нет.»
Любое явление? Тогда смысла никакого нет.
Про математику спорить не буду. Не спец. Наверно зря написал.
Но в в физике и других естественных науках, когда люди сталкиваются с новым явлением, они прежде всего определяют его через уже известные понятия. Таким образом, чтобы можно было это явление отличить от других. А сама суть явления и его внутренние механизмы может еще долго оставаться непонятной.
То есть определение в естественных науках есть сугубо практическая штука. Если это труднопроверяемо, то определение, скорее всего, неудачное. Именно потому, что не функционально.
В частности, мы давно изучаем рефлексы. И это определено как устойчивая связь между стимулом и реакцией организма, опосредуемая нервной системой. Просто для того, чтобы отделить это явление от других. И было понятно, о чем речь. А суть рефлексов мы до сих пор не понимаем до конца.
С тем, что можно многое понять про мозг, изучая работу ИИ, согласен совершенно.
О дискуссии. Хочется писать — пишу. Не хочется — не пишу. Захочется написать ответ через год — напишу через год.
Это определение возражений не вызывает. Нетрудно заметить, что я написал нечто похожее в комментарии, с которого началась эта ветка.
Да, если Вы посмотрите, то определение рефлекса у Вас отличается от прочих. Именно в том ключе, о котором я пишу.
«Определение тренировки получилось перпендикулярным определению рефлекса«.
Примерно в том же ключе я предложил определение тренировки (не претендуя, разумеется на совершенство). Тренировка — повторение последовательности действий (стимул- подкрепление), направленное на выработку рефлекса. Вот тут наши с Вами определения расходятся принципиально. Мое остается эмпирически проверяемым. Ваше адресуется к сути процесса, которая нам пока не известна.
Вот когда мы будем знать о работе мозга почти все, определения Вашего типа могут стать актуальными. И заменить нынешние, основанные на эмпирике.
Надо избегать скрытых утверждений. Например, как-нибудь так «Тренировка — повторение последовательности действий с обратной связью», а уж какие там будут результаты, это как повезёт. Вообще-то зависит от того, что и как тренировать. Например, даже при откровенном натаскивании на решение стандартных задач, эти задачи не повторяются, а каждая следующая чуть отличается. Результат здесь (если есть) всё-таки не условный рефлекс, а несколько более вариативное умение. Можно сказать, что вырабатывается распознавание образа стандартной задачи — это не условный рефлекс, потому что не обязательно имеет выход в действие. Обычно же (скажем, в Цубербиллер[е]) каждая задача требует ещё и небольшого, но самостоятельного движения ума, а это тренирует умения весьма высокого уровня.
«адресуется к сути процесса, которая нам пока не известна»
В принципе верно, я примерно это и имел в виду. Однако есть и такая мысль, что для ИИ суть некоторых процессов вообще-то известна, просто она неизвестна лично мне. По крайней мере про тренировку «однослойного» перцептрона, как сообщает интересная, но совершенно непонятная статья в Википедии («Перцептрон»), всё было ясно уже в незапамятные времена.
Пока главным образом неизвестно, как именно это соотносится с работой мозга. Который гораздо сложнее.
Естественно, я не оттачиваю свои «определения». Это специальная работа. Я, разумеется, даю только общую идею.
То, о чем Вы пишите, явно отличается от простой тренировки для выработки рефлекса. Поэтому заслуживает отдельного определения. Можно назвать это практикой. Как у Вас, в принципе, и было сделано.
Старая-старая шутка. Опытная обезьяна в лаборатории рассказывает молодой, что такое условный рефлекс. Это когда в 9 утра звенит звонок и эти в белых халатах бегут к нам с бананами и конфетами.