Почему мы думаем, что чатбот будет делать что-то лучше нас, если мы "сделаем его таким же, как мы"? Да, он будет делать это быстрее нас, потому что именно для этого он и был создан. Но не обязательно более точно - потому что это не то, для чего он создан, чтобы быть лучшей, более интеллектуально честной версией нас, просто чтобы быть нами в нагрузку. Журналист и редактор Войцех Муха, вдохновленный технологиями ИИ, дал интересное свидетельство этому в социальных сетях. Пока он писал, он еще не успел приготовить себе чашку чая, а чатбот уже доработал большой кусок текста из собранной им информации - абзац, на написание которого у среднестатистического стажера отдела новостей ушло бы три четверти часа.
Ибо ChatGPT ищет мгновенно, но проблема в том, что он ищет в интернет-ресурсах, где есть и мыло и повидло. Где, даже если опираться только на достаточно достоверную информацию - из энциклопедий или официальных научных кругов, - все равно встречаются фактические ошибки или неверные способы решения задач, в том числе и простых школьных заданий. В конце концов, существует множество "научных журналов" "хищнического" жанра, то есть хищнических за деньги, поэтому они публикуют все, что им присылают за плату. Они не подвергают текст никакой корректуре, даже проверке орфографии, не говоря уже о содержательной рецензии. С другой стороны, чатбот не способен должным образом проверить найденную им информацию.
Сам он не определяет, что такое истина - когда его спрашивают, он выгребает из сети некоторые определения истины, сформулированные философами и теологами, и дает их нам. Мы знаем, что истина, по мнению ChatGPT, это то, что является наиболее распространенным ответом на заданный вопрос в источниках, которые создатели его базы данных считают надежными и задают его. Учится ли он сам проверять источники, как отделять зерна интернета от плевел? Временами я осмеливаюсь сомневаться, для чего приведу примеры. Сегодня мы живем в социальных сетях, поэтому это будут примеры оттуда, но только от людей, которых я знаю лично в реальной жизни. Потому что мы должны придерживаться чего-то, когда речь идет о получении информации в эти странные времена.
Наш герой не смог справиться с простой, как проволока, задачей по физике. Профессор д-р Лех Манкевич из Центра теоретической физики Польской академии наук и посол Khan Academy в Польше описал на своей "стене" 16 января (и подтвердил скриншотом разговора с ботом), как он пытался получить ответ на заданный на английском языке вопрос о средней скорости автомобиля, движущегося из города А в город Б с разницей в 100 км. Автомобиль двигался со скоростью 40 километров в час в первой половине и 60 км/ч во второй половине. Бот решил задачу так, как будто речь шла о первой половине времени вождения, хотя время не было указано, но ладно. Затем профессор уточнил вопрос, сказав, что речь шла о половине маршрута, а не о времени вождения, но это не помогло. Он по-прежнему читается точно так же, а именно: (40+60)/2=50. Что вряд ли может быть правильным, только это отнюдь не решение ЭТОЙ конкретной задачи.
Подписывайтесь на наш фейсбук
Интересно, и даже более поучительно в работе с этой машиной, что один из гостей "стены" профессора задал чатботу тот же вопрос по физике во время дискуссии, только на польском языке. И здесь ответ был как нельзя более уместен. Что это говорит нам о распространенности неправильных решений задач по ньютоновской механике в англоязычном интернете, я точно не знаю, но у меня есть ощущение, что ничего хорошего. Никто не проверил испанскую, французскую или любую другую версию в рамках продолжающегося обмена мнениями между физиками и так называемыми знакомыми неспециалистами, но давайте согласимся, что - как выразился профессор Манкевич - "у меня больше нет вопросов". Здесь, после бота, по сути, "убрано".
Деревня как река, или интеллект из пластика
Учителя по всему миру громко сетуют на то, что ученики начали скачивать решения домашних заданий из чат-бота. Что ж, в контексте вышеупомянутой истории вполне может оказаться, что ученики заработают себе неудовлетворительную оценку не только за скачивание, но прежде всего за ошибки при скачивании. Поляков должна уберечь от соблазна печальная история "Емельку воробья" (Серия рифмованных книг о приключениях птиц: "Про воробья Емельку" Анны Лохоцкой), который на уроке скопировал букву В, у которой было три живота. Стоит освежить в памяти этот стишок, и от удодов, даже если он назван умно и современно, не скачивать.
Еще смешнее - о чем сообщается в тех же социальных сетях - история контакта с ChatGPT Януша Кухарчика, доктора философии и преподавателя предмета, переводчика с древних языков. Будучи большим патриотом родной Силезии, он расспрашивал ChatGPT о своей родной деревне Творог-Малы. Машина сначала написала в ответ, что это река в Судетской области, и указала конкретные деревни, через которые она якобы протекает, что еще больше усугубило абсурдность ситуации. Полная географическая фантастика! Тогда дознаватель указал ей на то, что такой реки нет, есть только деревня. Бот признал, что ошибся, и что это была деревня в Бендзинском районе. Когда ему снова "разъяснили", что это не так, что это деревня в Гливицком районе, он признал это и добавил, что там нет реки. Опять ошибка. Поэтому, когда ему наконец сообщили, что да, река есть и называется она Беравка, он добавил, что в ней много рыбаков и жители берут из нее воду.
Конечно! С ведрами на носителях, как в фильме "Над Неманом". Как человек с философским и сатирическим уклоном, доктор Кухарчик остроумно заметил в своем сообщении, что этот интеллект искусственный, потому что он сделан из пластика. И, что еще важнее, что это соцветие нашего постмодернизма "вместо того, чтобы писать, что оно не знает, оно тускнеет и собирает данные со своего искусственно интеллектуального дна". К делу! Мне кажется, это ключевой момент, и здесь я могу сказать, что на ChatGPT достигнуто абсолютное СОВЕРШЕНСТВО с большой буквы.