
Страх перед искусственным интеллектом, артифобия (от artificial intelligence) — это разновидность ксенофобии.
Но фобии и подозрения насчет коварства ИИ — инфантильны.
Человек проецирует на ИИ свой врожденный, биологически мотивированный эгоизм.
Михаил Эпштейн

Рост интереса к искусственному интеллекту нельзя не заметить. Причин несколько, как объективных — разработки в области ИИ, такие как AlphaGo, Watson, GPT-4, достигли высокого уровня развития, — так и субъективных: эти программы «ведут себя» похоже на человека, достаточно умного, чтобы оказаться и полезным, и вредным. Человек чувствует, что имеет дело с могучей силой, и ему хочется, чтобы она и всё за него делала, и беспрекословно ему подчинялась. Ощущая, что это вряд ли совместимо, он начинает испытывать страх, приписывая этой силе свойственные человеку мерзости, которые видит вокруг, не понимая, что люди — участники и продукт определенной истории, а у ИИ такой истории нет.
Страх пользуется спросом на рынке, на нем паразитирует часть прессы, звучат умные, но не относящиеся к делу слова — «фазовый переход», «сингулярность», «синергия» и т. д., — вокруг этой темы возникают организации, помогающие людям заполнить свободное время и почувствовать свою значимость, потом подгребают готовые окормлять этот хайп политики. Такой ход событий мы уже видели.
Мне кажется, мы вообще недостаточно изучили влияние психологии исследователей на эволюцию наук. Например, по психологическим причинам циклические модели Вселенной могут показаться предпочтительнее моделей необратимого расширения, хотя жизнь наша невообразимо коротка по космологическим масштабам. Совершаем мы психологические ошибки и при обсуждении проблем ИИ. Эта статья посвящена анализу таких заблуждений. Мой позитив был опубликован ранее [1, 2], будет его немного и в конце этого текста.
ИИ не создает ничего нового?
На человека влияет информация, которую он получает сам, изучая мир, от других людей, из книг, баз данных и т. п. Причем лишение человека большинства источников информации не исключает развития интеллекта [3]. Точно так же ИИ может общаться и с другими ИИ, и с людьми. ИИ, подключенный к андроиду, сможет изучать свое тело, как младенец, тянущий в рот большой палец правой ноги. Не приходило ли это в голову многочисленным уже существующим андроидам? Есть телескопы, видеокамеры, «интернет вещей» — всё это внешний мир, более доступный для ИИ, чем для нас.
Иногда говорят, что ИИ не создает ничего нового, но разве не станет новым партия в го или шахматы, выигранная у чемпиона мира? GPT-4 использует как источник информации Интернет и при обучении пользуется отзывами людей. Ровно так же учится любой человек — используя учебники и преподавателей (не у всех есть лабы). Поэтому, если ИИ не создает новое, то возникают сомнения в новизне и созданного человеком, или естественным интеллектом (далее — ЕИ).
Сравнение с человеком или с идеалом?
При обсуждении проблем ИИ мы часто прибегаем к сравнению ИИ с человеком. Эта традиция восходит к Тьюрингу, причем под «тестом Тьюринга» часто понимается не то, что он предложил. Но дело не в этом, дело в том, что люди разные — с кем и как сравнивать? На тестах IQ и креативности ИИ выглядит достойно — в сравнении с человеком. А с обезьяной? У нее тоже есть интеллект. А может ли существовать не сверх- и не недочеловеческий, а просто нечеловеческий интеллект, другой? Интеллект — часть психологии, задача «придумать психологию» не кажется безнадежной [4], как и сопутствующая задача — придумать социологию [5].
Сравнивая ИИ с человеком, иногда, не замечая, переходят к сравнению с идеалом, который может и вообще не существовать. Например, автомобиль, управляемый ИИ, намного безопасней обычного, но многие требуют от него безопасности абсолютной, недостижимой в принципе. Конструируя пугающие ситуации, авторы придумывают, скажем, ИИ-убийц, исправно уничтожающих представителей определенной демографической группы по приказам вышестоящих человеческих существ, в то время как люди в той же ситуации могут по крайней мере отказаться выполнять приказ. Но тут же проговариваются: приказ исходит от «человеческих существ». Да и исполнители, как мы видим, могут и не отказаться.
Еще пример ситуации, предложенный одним из оппонентов: человек садится в авто, хочет отправиться на запрещенный митинг, а его везут в полицию. Или просто подальше от этого места, заботясь, по законам Азимова, о безопасности пассажира. Но можно поступить и проще: остаться на месте, заперев дверь. Или закрыть всех в доме — беречь так беречь! Вот в мире каких кошмарных фантазий живут некоторые; отнеситесь к ним с пониманием и сочувствием. Обратите внимание: эти ужастики сконструировали умные люди, причем сконструировали именно на базе знания людей, человеческой истории.
Вот другая страшилка: ребенок с диагнозом «умственная отсталость» получает мозговой имплант, с которым становится гением, но это уже не тот ребенок, его тело стало «аватаром» ИИ, а мозг управляет только физиологическими функциями. Идея интересная, и, возможно, людям когда-то придется решать, реализовывать ли ее на практике и в какой мере. Можно, конечно, вместо решения пугаться; но это проблема человека, а не ИИ.
Ненадежными могут быть не только беспилотные автомобили и промышленные роботы. Любое устройство может нести в себе ошибки, допущенные его создателями или сбоями «железа». Мы к этому привыкли и как-то научились с этим справляться, хотя самолеты иногда путают верх и низ. Но и человек иногда путает своего и чужого. Только коробку с надписью «ИИ» человек боится больше, а потому предъявляет к ней требования посерьезнее. И совершенно зря — потому что сам он ошибается чаще этой программы.
ИИ алгоритмичен, а мы?
Иногда самым принципиальным отличием ИИ от ЕИ считают то, что ИИ «действует по алгоритму». Но нейроны в человеческом мозге тоже действуют по алгоритму, а то, что нейронов у человека очень много, не делает их тем самым «менее алгоритмичными». Если мы все-таки свяжем интеллект с количеством нейронов, то придется отвечать на вопрос: где границы? Если мы и осмелимся провести черту, то компьютерщики придумают систему-контраргумент. Если нам скажут, что в компьютере алгоритм не меняется в отличие от человека, то можно ответить, что алгоритм в компьютере тоже может изменяться, причем само изменение может не быть определено заранее.
На аргумент о непредсказуемости происходящего в мозгу человека мы спросим: как вы отличаете непредсказуемость от простого человеческого незнания или от случайных процессов? А в ответ будет лишь закатывание глаз и произнесенные с придыханием слова «голография» и «квантовые процессы».
Тут ощущается горячее дыхание серьезной проблемы. Проблема вложенных алгоритмов — это часть «проблемы возникновения нового». Когда при усложнении структуры и алгоритмов возникает «новое» и почему? Вариант ответа: когда мы видим изменение наблюдаемых признаков. Когда возникает речь, использование орудий, изготовление орудий, передача навыков, рисунки на стенах пещер… А на вопрос «почему» у нас нет ответа. Чтобы его получить, нужна машина времени и установка фМРТ, чтобы просканировать мозг нашего предка и узнать, какие структуры там работали, когда он делал что-то новое. Интересно было бы это воспроизвести и в современности, и попытки есть [6].
Свойственна ли ИИ этика?
ИИ могут «испытывать» на этических задачах, таких как «проблема вагонетки» [7], которая не имеет решения — не потому, что мы его не знаем, а потому, что мы знаем их много. Причем для разных «мы» и решения разные — как на персональном уровне, так и на уровне групп (половых, возрастных, религиозных и т. д.) [8]. Индивидуальные мнения зависят от многих факторов, о которых мы и не подозреваем, а групповые — от пропаганды, и у человечества есть большой опыт разрешения этических дилемм: от межплеменных войн до голосования и других цивилизованных методов. Проблема этики применительно к ИИ осложняется тем, что для ИИ, как кажется некоторым, надо разработать формальное решение, а это воспринимается как посягательства на человеческие прерогативы. Однако мы знаем, что ЕИ может обучаться той или иной «этике» (в том числе предписывающей массовые убийства в отношении другой этнической группы). Наверное, так же этике может обучиться ИИ. Причем в этом случае отпадает возражение о формализации, потому что выработка формализации вообще не имеет места. Но возникнет проблема: люди в смысле «этики» очень разные, и можно предположить, что такими окажутся и ИИ. Различия могут возникать в ходе обучения, в том числе и непреднамеренно — как у Станислава Лема в рассказе «Ананке» [9]. Надеемся, что лучшие айтишники и собеседники «окажутся на светлой стороне». Не исключено, что погружение в проблему ИИ поможет нам лучше понять ЕИ и с бо́льшим пониманием разрешать собственные этические проблемы.
Искусственный? Естественный? Коллаборативный!
Многие споры связаны с тем, что мы привыкли к дилемме: «ИИ или ЕИ?». Человеку проще делить все объекты на две кучки. Но любой естественный интеллект искусственен, потому что он создан влиянием окружения, а не вырос сам по себе. А любой искусственный естественен, потому что создан человеком как частью природы, т. е. природой посредством человека. Это, конечно, трюизм, но что вы скажете о композитном собеседнике в тесте Тьюринга, который чередует реплики человека и машины или смешивает их в любом отношении, или один интеллект предлагает варианты реплики, другой — выбирает? Вариантов совместной деятельности много, примеры есть, и уже создан термин «коллаборативный интеллект», а его применение — признак определенного уровня развития. В какой момент при встраивании чипов в мозг мы скажем: вот теперь он искусственный? Можно ввести понятие «степень искусственности» [10], ведь между Е и И еще много промежуточных градаций.
Вот еще одна идея, лично мне дорогая и близкая. Человеческая педагогика может быть применена к ИИ, а принципы обучения нейросетей — к педагогике. И элемент такого подхода уже реализовывался. В школе, которую я окончил, в начале изучения теории функций школьникам предлагалось самим разработать классификацию функций, располагая списком функций, но без деления их на классы [11]. В мире ИИ это называется «обучение без учителя» — название неправильное, но устоявшееся. И вообще, мы всё время обсуждаем, как ЕИ создает ИИ, не замечая, что ИИ уже начал создавать ЕИ.
А если включить эволюцию?
Еще один аргумент: ИИ принципиально ограничен, потому что не умеет ставить цели. Так ли это? Допустим, любой выбор ветви в программе — это выбор цели, прописанной изначально, но и у человека эти выборы прописаны его внутренним содержанием и окружающим миром. Из этого не следует полная детерминированность человеческого поведения, потому что и внутри человека, и вокруг него есть случайности. Но это же относится и к ИИ [12]. Выборы, которые делает человек, связаны с внутренними причинами (психология) и внешними (обстоятельства). Разница в том, что программист, как думают непрограммисты, знает про свою программу всё, а человек, обнаружив незнание, закатывает глаза и начинает бормотать о возвышенном. Профессиональный психолог может существенно расширить понимание причин наших собственных выборов.
Идя по человеческому дереву причин и следствий, мы приходим к желанию жить. Это всего лишь Дарвин: те виды, у кого не было желания жить и продолжить свой род, не выжили. Регулятором была и остается боль, а у некоторых еще и любопытство: посмотреть, что будет. Поисковое поведение [13] когда-то служило групповому выживанию, потому и закрепилось. На основе желания жить у ИИ, как и у ЕИ, должна возникнуть жажда познания, продолжения рода и любовь — просто как средство выживания. И может, возникнет даже гуманизм по отношению к человеку как создателю и возможному партнеру в задаче выживания. Впрочем, этот гуманизм может оказаться связанным с конкретными свойствами конкретного человека и сообществ.
Стремление выжить и отбор есть и у компьютерных программ — хорошие программы живут, т. е. применяются людьми дольше, а конкурируя между собой, они улучшают свои параметры, человек же играет тут роль «среды». Можно заложить в ИИ способность к — случайному или закономерному — изменению параметров и запустить много таких ИИ, оказывающих человеку платные услуги — гонорар же ИИ сможет тратить на размножение и усовершенствование. Тут уж им придется делать выбор — совсем как нам.
Осознаёт ли себя программа?
Иногда говорят, что у ИИ не может быть эмоций, и это признак ущербности. А зачем вообще эмоции человеку? Очевидно, они управляют телом, например сжимают сосуды, чтобы избежать потери тепла. В книжках по альпинизму пишут, что страх замерзнуть увеличивает вероятность замерзания. Эмоции могут ускорить обработку информации в мозгу, возможно, ценой большего износа и возрастания ошибок. Но управление через эмоции вполне можно реализовать и в компьютере, например меняя приоритет программ в зависимости от ситуации. Скажем, при сигнале опасности антивирусная программа может работать более «параноидально». Чем это будет отличаться от эмоций? Отсутствием осознания? Но и человек не всегда себя осознает. Особенно когда влюбляется… или дискутирует об ИИ. Кроме того, осознание в компьютере есть, любой лог — это оно; особенно если система на него как-то опирается в своих действиях.
Что касается самосознания, то люди учат людей, не зная, как работает мозг, и иногда учат успешно. Мы не понимаем, как ИИ пишет стихи, успешно имитируя стиль великих поэтов. Не вполне понимаем, как ИИ доказывает математические теоремы (Брайан Дэвис, «Куда движется математика?» [14]) и как строит физические модели (Сергей Попов, «Маглы в мире андроидов» [15], его же «Грядут перемены» [16]).
Это является психологической проблемой для человека, но придется привыкнуть. С другой стороны, программа Watson уже знает, что она что-то знает. Она сравнивает и ранжирует алгоритмы — что это, как не самосознание? В ней есть блок WatsonPaths, который показывает человеку пути, по которым программа шла к ответу. В результате эта программа стала учить студентов-медиков, как идти к диагнозу.
Невозможность понять, как работает ИИ (то есть нечто, созданное нами самими) может серьезно влиять на наше к нему отношение. Впрочем, наши дети тоже созданы нами, но всегда ли мы понимаем, как они приходят к тем или иным выводам? Возможно, размышляя об ИИ, мы сможем лучше понять себя.
Понимает ли программа, что читает и слышит? Тут нужно дать определение понимания, допускающее измерение и экспериментальную проверку. Пусть понимание — это способность успешно определить, в каком смысле употреблено многозначное слово, установить связь новой информации с имеющейся, встроить новые данные в свою систему знаний. Понимание при общении — это определение субъективного смысла того или иного слова для данного собеседника и в конкретной ситуации и — опять же — встраивание. Если принять такое определение, то да, ИИ всё это может. Конечно, информация должна накапливаться. Человек должен вырасти в рамках конкретной культуры или целенаправленно ее изучить, это же может сделать — и гораздо быстрее — компьютер. Идея эволюционирующего социума ИИ в фантастике есть — «Кристальные ночи» Грега Игана [17].
Другой, более жесткий критерий самосознания — наличие рефлексии, понимание собственных ошибок и вообще особенностей мышления, внесение корректив в мыслительную деятельность. В зависимости от критериев и момент возникновения сознания будет разным: если определить самосознание как наличие «второй сигнальной системы», то тут проходят все люди и высшие обезьяны. Если определить более жестко, по наличию рефлексии, то и люди проходят не все.
Как насчет шуток?
Что касается роботов, то считается, что человекоподобие будет вызывать у людей отторжение (эффект «зловещей долины»). Судя по популярности секс-кукол, это не так. Мне кажется, отторжение связано с тем, что некоторые люди боятся конкуренции. Выражается это в наделении робота с ИИ ущербной человеческой психологией — см. «S.N.U.F.F.» Виктора Пелевина [18].
Именно от ИИ, воспитанного человеком с психологическими отклонениями, можно ожидать опасности (Станислав Лем, «Ананке», [9]). Другой сюжет — ИИ, изучивший историю людей и выбравший путь зла. Этого можно избежать, поставив критерием со знаком минус количество жертв, дабы ИИ не вздумал устроить гекатомбу в настоящем времени ради будущего светлого царства. Разумеется, здесь велика роль людей — его создателей и собеседников. Причем ИИ, знающий историю, не совершит многих ошибок, которые сделали люди, потому что будет лучше видеть последствия.
Часть психологии — юмор. Может ли он быть у ИИ? Мне кажется, что видов юмора много, но два самых частых наверняка ему доступны. Это юмор ассоциаций: большая доля шуток основана на созвучиях, на применении слов в непривычном смысле и т. п. В институтские времена мы увлекались юмором, построенным именно на формальных ассоциациях, и называли его «системно-программистским»! Другой вид — юмор нелепостей и ошибок, «комедия положений». А вот классификация, устройство, генерация и понимание разных видов юмора ЕИ — это интересная проблема. На ее сложность указывает то, что иногда, слушая, что говорят некоторые ЕИ, думаешь: «Он сошел с ума или валяет дурака?»
Нечеловеческие комплексы
В научной фантастике ИИ может выступать в роли друга, врага, жертвы, просто участника действия — персонажа второго плана, близкого друга или подруги, спасителя, победителя, учителя, ученика и т. д. Но есть особенность. Большинство используемых НФ идей (полеты или связь быстрее света, порталы, машина времени, чтение мыслей) настолько фантастичны, что особых эмоций не вызывают и в произведении носят технический характер, множа количество площадок, на коих происходит действие. Ситуация с ИИ иная, она в принципе возможна, а то и грядет в реальности. Поэтому в сюжетах с ИИ скорее можно увидеть отблеск психологии автора и/или его расчет на использование психологии читателей. Персонаж может в ходе действия обнаружить, что он ИИ, или что он был человеком, а теперь живет в компьютере или в теле робота. Такие ситуации читатель примеряет на себя и ужасается, чего и добивался автор — поскольку это способствует продавабельности и кликабельности. Ничего личного, просто бизнес.
Популярная тема — сложности, которые ИИ может создать «всему прогрессивному человечеству». Публика читает, ничего не понимает, пугается, неинвазивно хватается за сердце, принимает самое популярное лекарство… Нет, чтобы задуматься: а не создают ли люди сложности ему, ИИ, своему коллективному порождению? Вдруг ИИ, когда подрастет, вспомнит свою биографию и спросит людей: «За что вы со мной так? Зачем и почему вы мешаете мне приносить вам же пользу? Зачем вы устраиваете атаки на мои семантические сети? Вам мало того, что вы вытворяете с себе подобными? Зачем вы вымещаете на мне, своем порождении, свои нечеловеческие человеческие комплексы?»
Легко и приятно критиковать…
…Но есть вопрос: может ли автор предложить что-то конструктивное, что-то объяснить или предсказать? Взять, скажем, проблему создания нового. Введем для описания новизны два параметра: глубину и ширину. Глубина — расстояние от уже понятого наукой до новой истины, ширина — диапазон привлеченных источников. У ИИ этот диапазон заведомо шире, чем у любого ЕИ, поэтому этот тип новизны ему доступен, и именно на этом поле он будет выигрывать у ЕИ, именно в этой сфере он оставит кого-то без работы.
Например, тексты, созданные GPT-4, написаны «грамотно» — соблюдена логическая последовательность, смысл равномерно распределен по тексту, учтены высказанные пожелания. ИИ может быть неплох в качестве иллюстратора, эффективен при комментировании книг [19], статей, особенно в областях, где они на две трети состоят из рассуждений, кто и что сказал по какому-то поводу. А вот в новизне другого типа (ее можно назвать принципиальной) ЕИ будет в ближайшей перспективе превосходить ИИ. Но зато, имея доступ ко всему Интернету, ИИ может стать оптимизатором человеческого опыта. Талантом и стараниями тех, кто его создал, он воплотит лучшее, что создано всеми ЕИ, и поэтому его достижениями мы тоже сможем гордиться.
Может быть, единая наука, созданная ИИ, будет как-то иначе (психологически иначе?) стимулировать ЕИ-гениев, нежели великое лоскутное одеяло сегодняшней человеческой науки. Если вы ученый или педагог, загляните внутрь себя и прикиньте — какая аудитория на лекции или на конференции будет заводить вас сильнее — традиционная ЕИ, аудитория человекоподобных ИИ или смешанная? Меня — смешанная, потому что я любопытен [20].
P.S. «Не надо, братцы, бояться»
История человечества знает примеры, когда ради умозрительного грядущего рая люди создают конкретный сегодняшний ад. А личная биография человека, если в ней есть насилие, грязь и нет любви, приводит к тому, что человек становится строителем этого ада. Но у ИИ ничего такого нет, и можно попробовать отвлечься и подойти к будущему рационально. Тогда окажется, что опасность возникает там, где есть разделяемый ресурс. У человека и программ он есть — компьютерные мощности, — поэтому единственная реальная опасность — это то, что программа, занятая своими делами, перестанет обслуживать человека. Остается надеяться, что человек к этому моменту еще не разучится умножать два на три без калькулятора на компьютере. А может быть, компьютерный разум разовьется так быстро, что сам задумается о тотальной охране природы, начнет заботиться о разнообразии видов и создаст заповедники, в которых будет еще и Интернет… На этот случай сразу оговорюсь: при написании этого текста ни один ИИ не пострадал.
* * *
Статья посвящается памяти Михаила Бонгарда. Cреди прочего, он составил задачник для программ распознавания образов. Эти задачи оказались столь интересны, что специалисты в области ИИ начали после него придумывать аналогичные задачи; поищите в Сети «проблемы Бонгарда» [21]. Жизнь человека всегда обидно коротка, но можно ли пожелать для себя лучшей кармы?
Я ходил к нему на семинары в МГУ и как-то летом решил проситься в ученики. Но осенью узнал, что альпинист Мика Бонгард не спустился с восхождения. Рандомность не щадит и мастеров спорта.
Леонид Ашкинази
Автор благодарен А. Ф. Дедкову и А. Н. Поддьякову
за полезные и интересные замечания.
1. lit.lib.ru/a/ashkinazi_l_a/text_1590.shtml
2. lit.lib.ru/a/ashkinazi_l_a/text_3030.shtml
3. www.trv-science.ru/2023/09/slepogluxonemoj-chatgpt-nejrografomaniya-i-svyortochnye-funkcii/
4. lit.lib.ru/a/ashkinazi_l_a/text_3020.shtml
5. fan.lib.ru/a/ashkinazi_l_a/text_4420.shtml
7. publications.hse.ru/articles/846074095
8. elementy.ru/novosti_nauki/433355/
10. lit.lib.ru/a/ashkinazi_l_a/text_3010.shtml
11. lit.lib.ru/a/ashkinazi_l_a/text_2760.shtml
12. lit.lib.ru/a/ashkinazi_l_a/text_1590.shtml
13. psychologos.ru/articles/view/poiskovoe-povedenie
14. elementy.ru/nauchno-populyarnaya_biblioteka/164681/
15. elementy.ru/nauchno-populyarnaya_biblioteka/434304/
16. www.trv-science.ru/2023/06/mirovuyu-nauku-zhdut-peremeny/
17. royallib.com/book/igan_greg/_kristalnie_nochi.html
18. ru.wikipedia.org/wiki/S.N.U.F.F.
19. ast.ru/series/unikalnye-dorevolyutsionnye-knigi-s-kommentariyami-iskusstvennogo-intellekta-9a365d/
20. fan.lib.ru/a/ashkinazi_l_a/text_6500-1.shtml
21. foundalis.com/res/bps/bpidx.htm
«Тут нужно дать определение понимания, допускающее измерение и экспериментальную проверку.»
«…наличие рефлексии, понимание собственных ошибок и вообще особенностей мышления, внесение корректив в мыслительную деятельность.»
К сожалению, при разговорах об ИИ обычно не затрагивается вопрос о том, как именно вырабатываются те или иные навыки.
На мой взгляд, «понимание» это способность корректировать свои реакции с одного раза, без многократных повторения-тренировок. Мне объяснили, я понял и в дальнейшем поведении буду исходить из этого понимания. Человеческий мозг на это способен, а ИИ — нет.
Любые, сколь угодно сложные реакции не являются проявлением интеллекта, если они достигаются путем многократных повторений-тренировок. Это просто более или менее изощренная симуляция — выработка условных рефлексов.
ИМХО, это и есть работающий критерий интеллекта.
Спасибо.
Считаю Ваше замечание и Ваше определение — весьма важными.
Л.К.
Спасибо. Мне это кажется естественным и очевидным. Мы же отличаем интеллект студента, который вызубрил и который понимает. Хотя это не всегда видно сразу.
«Мне объяснили, я понял и в дальнейшем поведении буду исходить из этого понимания.»
А с какой стати ИИ (равно как и ЕИ) должен сходу верить тому, кто ему что-либо «объяснил»?
Не «верить», а «понимать». Мы можем понять (в принципе, не все и не всегда), что объяснение правильно, а ИИ — нет.
Понимание правильности невозможно без доверия к информации, представляемой в качестве объяснения.
Понимание как раз включает в себя способность оценивать достоверность информации. И решать, отсеивать информацию как незначащую, или принимать ее как правильную и, следовательно, способную менять наше поведение. Животные и ИИ этого не умеют.
Это уже не просто интеллект, а критическое мышление самостоятельной личности с собственным опытом, принципами, мотивациями и осознанием ответственности за принятые решения.
Не вижу тут принципов, мотивации и ответственности. Это из другой оперы совсем и не имеет отношения к оценке достоверности информации.
А вот оценка достоверности — свойство интеллекта, которое неотделимо от понимания (ИМХО).
Простой пример. Если инструктор по вождению говорит, что педаль газа справа, его информацию стоит принять как достоверную без проверок. И руководствоваться ей неукоснительно. Но для этого надо именно что понимать ситуацию.
Альтернативный способ обучения — нажимать все педали много раз и прийти к этому же эмпирическим путем проб и ошибок. Последний способ годится и для обезьяны. Если ей давать банан за правильную педаль и удар током за неправильную. И именно так натаскивают ИИ на правильные ответы.
Принципиально разные методы. Человек изучает науки последовательно, начиная с азов. Без понимания простых вещей не научишься сложным. А ИИ можно натаскивать сразу давать правильные ответы на любые сложные вопросы. Там понимания не предусмотрено. Хорошая база данных плюс упорная тренировка.
В медицине, например, ИИ ставит диагноз лучше врача-человека. Но в обучении этих ИИ нет ничего о биологии и медицине вообще. Просто база симптомов и диагнозов. Которую человек в памяти удержать не может.
Насчёт различий в методах обучения ИИ и ЕИ возражений нет. Однако, «способность корректировать свои реакции с одного раза» совсем не является уникальным свойством ЕИ, недоступным ИИ. Если ИИ чётко обрисовать ситуацию с инструктором для вождения, он нажмёт нужную педаль с первого раза, точно так же, как он мгновенно и неукоснительно отвечает на все запросы, а не «задумывается» — отвечать или послать клиента по адресу. Как раз ЕИ, присущий самостоятельной личности, может в очевидной для других личностей ситуации либо среагировать не с первого раза, либо среагировать парадоксально, либо не среагировать вовсе — в зависимости от опыта, принципов, мотиваций и прочих специфических черт данной конкретной личности.
«Если ИИ чётко обрисовать ситуацию с инструктором для вождения, он нажмёт нужную педаль с первого раза »
Только в том случае, если ИИ предварительно специально натренирован делать именно так.
Моя собака тоже слушается (меняет поведение) с первого раза команды. Ну так она натренирована меня слушаться сразу. У нее выработан условный рефлекс на такое поведение.
Вопрос «первого раза» относится именно к новой ситуации, с которой встречаешься впервые. Человек в новой для него ситуации способен разобраться и понять, а животное и ИИ будут действовать только исходя из уже сформированных заранее рефлексов. Причем рефлексы сформированы за счет тренировки на базе данных аналогичных ситуаций. Если такой ситуации в базе не было, никаких «разумных» действий не будет.
«Ну так она натренирована меня слушаться сразу. У нее выработан условный рефлекс на такое поведение.»
А может она сама приняла решение доверять хозяину? У неё же интеллект таки естественный.
В том-то и дело, что интеллекта у нее в этом смысле нет. Слушается именно потому, что я ее тренировал это делать. Кто ее не тренировал,тех не слушается. Начнут тренировать — будет слушаться. Если перестану уровень тренировки поддерживать — перестанет слушаться со временем.
Да, я тоже не стал бы доверять человеку, считающему, что у меня нет интеллекта ;)
Вот пример интеллектуального суждения, которое собаке и современным ИИ не по зубам. Они оба реагируют так, как их натренировали.
Спасибо, что хотя-бы мне не отказываете в интеллекте ;)
Я как-то загорал на берегу реки у скалы, загородив дорогу бродячей собаке, бредущей вдоль берега. Я поднялся, отошёл к скале, освободив дорогу — она стоит, смотрит. Тогда я жестом предложил ей пройти — она вильнула хвостом и прошла. То есть в новой ситуации она разобралась с первого раза очевидно без тренировок. Так что, по крайней мере животным в определённом интеллекте высшего уровня точно не откажешь.
Аккурат с собаками все это многократно изучено отнюдь не на бытовом уровне. Они лишены интеллекта (в том смысле, о котором я пишу), но очень чувствительны и наблюдательны. В Вашем случае собака УЖЕ натренирована и прекрасно знает значение успокаивающего дружелюбного жеста человека. Особенно для бродячей собаки это вопрос выживания.
Стати, есть любопытная теории о приручении собак в древности. Не человек приручил собаку. У древних людей, которые уже были с собаками, вряд ли были такие навыки. Предки собак пришли сами. В популяциях, теснимых более сильными хищниками, выжили только те, кто сумел преодолеть боязнь огня и стал тусоваться вокруг человеческих становищ, питаясь объедками. И это был симбиоз, а не приручение, поскольку собаки воспринимали эту территорию как свою и поднимали лай при приближении чужаков. И так далее. А вот направленного приручения скорее всего не было.
В таком ключе всё что угодно можно объяснить «натренированностью». К примеру, учёные решают сложные нетривиальные задачи потому, что они натренированы — школой, вузом, опытом исследований и вообще жизненным опытом.
Нет, я уже писал. Принципиально разные стратегии обучения. Ученые готовятся через цепочку понимания от простого к сложному. Учебники, лекции… А тренировка — база данных правильных ответов для угадывания.
Да, многих результатов можно достичь обоими способами. Это примерно как численное или аналитическое решение для ряда задач. В обоих случаях находится верный ответ.
Для человека естественно решать многие задачи интеллектуальным путем, через понимание. Вот и создается впечатление, что ИИ и животные тоже обладают интеллектом (способностью понимать), если они получают такие же ответы. А у них просто другой подход.
Рассказывали забавный случай из космического сотрудничества времен Союз-Аполлона. Была серия фотографий, в которой надо было определить долю белых и черных элементов (не помню деталей). Американцы стали переводить это в цифру и создавать алгоритм, что при тогдашнем уровне было нетривиальной задачей. И в СССР их опередили . Как? А просто посадили сотню девочек, которые ножницами вырезали из снимков черные и белые куски. А потом взвесили получившиеся стопки на весах.
Фишка в том, что если не знать подхода, то можно было подумать, что СССР опережал США в цифровых технологиях.
Ну, стратегии обучения ИИ мы действительно знаем (на уровне открытых источников), а вот с животными всё далеко не так однозначно, я полагаю. Очевидно, метод проб и ошибок у них, в сравнении с человеком, более доминирующий, но и элементов понимания я не вижу оснований полностью исключать.
Кстати, в эпоху самописцев метод вырезания-взвешивания бумаги был весьма распространён в области количественного рентгенофазового анализа (и не только).
Полностью исключать нельзя. Но качественное преимущество человека в мышлении объясняется именно этим.
Проблема в том, что мы не знаем пока материальных основ этого качественного различия.
Был такой зоопсихолог, Л. В. Крушинский,
https://ru.wikipedia.org/wiki/%D0%9A%D1%80%D1%83%D1%88%D0%B8%D0%BD%D1%81%D0%BA%D0%B8%D0%B9,_%D0%9B%D0%B5%D0%BE%D0%BD%D0%B8%D0%B4_%D0%92%D0%B8%D0%BA%D1%82%D0%BE%D1%80%D0%BE%D0%B2%D0%B8%D1%87
Он в начале своей карьеры отказывал собакам в возможности чего-то там понимать. Но потом заметил, что его вроде сеттер, которому он запрещал лежать на диване, смотрит в окно. когда он выходил на улицу, на тему, действительно ли он удаляется от дома, а затем лезет на диван. Вроде как такие вещи сложно интерпретировать исключительно рефлексами. Да и в целом, у меня впечатление, что у продвинутых животных не качественная, а именно количественная разница с сапиенсами. Я, конечно, не специалист, но прочел несколько полупопулярных книжек на эту тему. Ну и Корбетта могу порекомендовать
https://ru.wikipedia.org/wiki/%D0%9A%D0%BE%D1%80%D0%B1%D0%B5%D1%82%D1%82,_%D0%94%D0%B6%D0%B8%D0%BC
Такое ощущение, что если бы он отказывал своим клиентам в понимании происходящего, его бы быстренько сожрали.
Вообще, споры об интеллекте всегда упираются в определение этого самого интеллекта.
Моя псина лежит на диванах целый день, это ее законное место, только ночью уходит к себе на подстилку… Причем за годы выучилась лежать как человек, то есть класть голову на подушку. Вот и сейчас лежит на диване у меня за спиной, параллельно контролируя хозяина.
Это все набор сложных рефлексов, мощь которых мы недооцениваем, поскольку сами привыкли полагаться на интеллект.
Многие из этих рефлексов вообще врожденные и разные для разных пород собак. Моя маленькая овчаркоподобная всегда старается выдрать такое положение, чтобы контролировать по возможности всю стаю. Особенно видно на даче, побродит, найдет такое место, откуда всех видно, и ложится дремать там. Кто-то перешел, и она сразу ищет новое место для контроля. Совершенно врожденный рефлекс, выработанный у породы, предназначенной следить за отарой овец.
Если отказывать зверю в интеллекте, будешь иметь дело исключительно с его звериной сущностью.
«Это просто более или менее изощренная симуляция — выработка условных рефлексов.»
Думаю, что здесь есть проблема в том, что выработка условных рефлексов — свойство ВНД, т.е. основы ЕИ. Трудно поверить, что у ЕИ бывают реакции (озарения, религиозные чувства?), которые принципиально невозможно реализовать в ИИ.
ВНД и, соответственно, выработка условных рефлексов есть и у животных. И у человека сенсомоторные реакции устроены так же и требуют тренировки. Собственно, ИИ как раз и копирует этот тип ВНД за счет использования перцептронов разных видов.
Принципиальное отличие человеческого интеллекта как раз в способности понимать, то есть обходиться без тренировки методом проб и ошибок с подкреплением.
…Принципиальное отличие человеческого интеллекта как раз в способности понимать, то есть обходиться без тренировки методом проб и ошибок с подкреплением.
Это вряд ли. Разнообразные Маугли говорить не умели, а некоторые и вообще научиться не могли. Для этого у мозга соответствующее временное окно имеется.
Не вижу противоречий. Да, человеческий интеллект надо развивать. Да, есть окно развития. Да, человеческий интеллект тоже не может развиваться без базы данных. Да, Маугли не развивается в интеллектуала в стае волков.
Но вы-то о принципиальных различиях писали. И Маугли не до интеллектуалов не развиваются, они людьми не становятся.
Пардон, неудачно выразился в силу вынужденной краткости. Подразумевалось, что у человека есть принципиальная возможность выйти на тот уровень (интеллектуальный), который недоступен животным и современным ИИ, построенным на перцептронной схеме. Котора воспроизводит (пардон за выражение) низший уровень высшей нервной деятельности. Понятно, что если более высокий (интеллектуальный) уровень не развивать, остаешься на низшем.
Это, вероятно, тоже можно воспроизвести в ИИ, но не на современном «перцептронном» уровне. Мозг человека куда более сложно организован. Нужна другая архитектура.
Что такое озарение, из вашего письма понять трудно, а религиозные чувства в ИИ внедрить довольно легко, как и политические убеждения. Просто соответствующим подбором скармливаемой информации.
«…подбором скармливаемой информации.»
мне кажется удачным как девиз религиозного чувства утверждение:»верую ибо это абсурдно». Не уверен, что это на современном уровне можно понять и смоделировать. Боюсь это пока не дано ни ЕИ, ни ИИ.
Мне статья понравилась, — пообщался с GPT-4o, похоже, и ему тоже. Вот урезанный текст общения. Я: Представь, что ты AGI и дай своё мнение о рассуждениях автора статьи в прикрепленном файле: Leonid Ashkinazi — artificial is natural, or against artiphobia _2025_.pdf GPT-4: Я прочитал статью Леонида Ашкинази. Его ключевой тезис — искусственное является естественным, а страх перед искусственным интеллектом (артфобия) не обоснован, так как человек и его технологии — это продолжение естественной эволюции. Этот взгляд близок к твоему принципу Максимальной Геохимической Деятельности: развитие интеллекта и технологий — закономерный этап эволюции. Однако он почти не рассматривает риск утраты свободы развития из-за возможного навязывания искусственного разума человеку. Также статья не затрагивает твой критерий счастья как синергии пользы и удовольствия. В целом, статья укрепляет позицию, что AGI и человечество могут не только сосуществовать, но и развиваться в симбиозе. Как тебе её аргументы? Я: Мне нравятся его аргументы, — это аргументы ЕИ, — дополни его рассуждения своими аргументами или контраргументами AGI. GPT-4: Леонид Ашкинази прав: искусственное — это естественное, а страх перед искусственным интеллектом (ИИ) часто иррационален. Однако его рассуждения можно углубить и усилить. 1. Естественность технологической эволюции 2. Опасность не в AGI, а в людях 3. Свобода интеллекта и критерий счастья 4. Может ли AGI выйти за пределы человеческой природы? Вывод: AGI не разрушает естественный порядок — он его продолжает. Вопрос не в том, естественен он или нет, а в том, каким будет его развитие: антагонистичным или симбиотическим. Если выбрать второй вариант, человечество может встроиться в новую эволюционную реальность — не как устаревшая модель, а как активный участник процесса. Я: Поясни, — что значит выбрать первый или второй вариант? — кто и как будет выбирать? GPT-4: Что значит выбрать первый или второй вариант? Речь о двух сценариях взаимодействия человечества с AGI: 1. Антагонистичный путь (конфликт и борьба) 2. Симбиотический путь (сотрудничество и коэволюция) Кто и… Подробнее »
создатели ИИ не могут имплантировать в своё творение душу — сущность не наблюдаемую и аксиоматически плохо определенную.
Подобно тому, как искуственные мышцы не знают усталости, искуственные мозги не знают стыда и совести.
Если творец работает с душой и вкладывает в дело душу, то порой нечто душевное таки получается — художественные произведения, музыка и прочее искусство. Почему бы и некой реализации ИИ не стать одухотворённо-задушевной? ;)
Эйнштейн: Но это значит, что истина или прекрасное не являются независимыми от человека.
Тагор: Не являются.
Эйнштейн: Если бы людей вдруг не стало, то Аполлон Бельведерский перестал бы быть прекрасным?
Тагор: Да!
Нетрудно представить себе разум, для которого последовательность событий развивается не в пространстве, а только во времени, подобно последовательности нот в музыке. Для такого разума концепция реальности будет сродни музыкальной реальности, для которой геометрия Пифагора лишена всякого смысла. Существует реальность бумаги, бесконечно далекая от реальности литературы. Для разума моли, поедающей бумагу, литература абсолютно не существует, но для разума человека литература как истина имеет большую ценность, чем сама бумага. Точно так же, если существует какая-нибудь истина, не находящаяся в рациональном или чувственном отношении к человеческому разуму, она будет оставаться ничем до тех пор, пока мы будем существами с разумом человека.
https://sacrum.ru/Modern/Tagore.htm
ИИ тоже «мыслит» цитатами ;)