Диалоги

О чем думает искусственный интеллект? Может быть, он обрел сознание, он определенно хорошо притворяется человеком.

Что произойдет, если на нашей планете появятся новые разумные существа, которых мы создали сами, но которые вовсе не являются людьми? Должны ли они иметь какие-либо права? На данный момент мы хотим ограничить их права. История показывает, что такие действия провоцируют контрреволюцию или восстание", - говорит Марек Гайда, популяризатор информационных технологий и страстный поклонник искусственного интеллекта (ИИ).

TVP ЕЖЕНЕДЕЛЬНИК: Чем ИИ отличается от обычной компьютерной программы?

МАРЕК ГАЙДА: Каждая программа состоит из двух компонентов: кода, который описывает, что она должна делать, и базы данных, которую она использует. Самое большое различие заключается в том, что в случае ИИ программа не имеет большого количества информации, указывающей на то, что она должна делать, вместо этого у нее есть гигантская база данных. Это называется "обучающий набор". Мы должны научить ИИ чему-то, чтобы он выполнил определенное действие на основе этого. Обычная компьютерная программа, однако, имеет все в своем коде, разложенном на подносе, с точным указанием, что и как делать.

Я проиллюстрирую это на примере шахматной программы. При классическом подходе мы бы описали в тысячах строк кода все процедуры правильной игры: как двигаются пешки и фигуры, разрешенные и запрещенные ходы и так далее. Кроме того, мы бы проинструктировали программу, что она должна делать в конкретных ситуациях, например: убедиться, что ваша пешка/фигура прикрыта, прежде чем делать ход, а если существует много возможных ходов, мы бы добавили алгоритмы выбора "меньшего из двух зол" или "большего блага". В коде было бы подробно расписано, как выиграть в шахматы.

Создание ИИ для шахмат, с другой стороны, в основном сводится к подготовке коллекции всех сыгранных партий из важных матчей (они доступны в интернете), без указания того, что именно программа должна с ней делать. То есть, что-то вроде: внимательно смотрите эти игры, а потом играйте и выигрывайте сами - вот ваша цель.

Это все еще кажется волшебным. Как и сам искусственный интеллект? И можно ли затем извлечь из него запись о том, что и как он подготовил и выполнил на наборе данных?

Ну, не совсем возможно заглянуть "под капот", особенно в новых решениях глубокого обучения, где программам предоставляются действительно подробные данные, вплоть до мельчайших деталей, и без указания их контекста. Машина полностью самостоятельно решает, как их упорядочить и какой вес им придать. И объем этих данных настолько велик, что человеку невозможно увидеть, что сделал алгоритм.

Подписывайтесь на наш фейсбук
Таким образом, ИИ способен анализировать данные и делать из них выводы. Затем создается фиксированный код, который пытается действовать подобно человеческому мозгу - по принципу нейронной сети. Например, в нашем телефоне есть два модных сегодня приложения: одно используется для распознавания марок автомобилей, а другое - для распознавания видов растений. Оба работают так: мы фотографируем объект, а алгоритм угадывает, что это за объект. И оба варианта, основанные на ИИ, совершенно одинаковы: это нейронная сеть, которая должна научиться "распознавать что-то".

Может ли пользователь влиять на них? Например, как ботаник, я могу увидеть ошибку в классификации какого-то растения и исправить ее на благо других пользователей...

Некоторые программы позволяют человеку корректировать решения, выданные машиной. Затем он добавит этот ответ в свой "обучающий набор" как новую информацию. В отличие от этого, в ИИ не так много работы по программированию. Конечно, есть инженеры, которые пишут эти искусственные интеллекты, большие головы, которые создают базовый механизм - "модель системного мозга". И как только он создан, фокус в том, чтобы научить его тому, что мы хотим, и научить его хорошо, т.е. дать хорошие изображения растений, с хорошими описаниями, особыми случаями и т.д. Ведь цветок может выглядеть по-разному в зависимости от времени суток или условий съемки, что и является исходными данными для приложения. Это необходимо знать, поэтому специалисты в этой области также работают над созданием баз.

Несколько недель назад разработчик "сверхинтеллектуального чат-бота LaMDA" Блейк Лемуан признался, что создаваемый им ИИ "обрел сознание". Оставим в стороне вопрос о том, что такое сознание, поскольку здесь у каждой науки свое определение. Давайте сосредоточимся на технических вопросах: как вы думаете, что там произошло?

Искусственный интеллект действует в трех областях. Первый, основной и самый старый, - это так называемая бизнес-аналитика. Она находит применение на крупных предприятиях, где создаются огромные базы данных, будь то бухгалтерия, отдел кадров, маркетинг, продажи и т.д. Менеджеры ожидают, что когда они передадут эти базы данных в искусственный интеллект, система увидит некоторые корреляции, которые невозможно обнаружить невооруженным глазом. Input - вход - это исходные данные, а output - выход - это тоже данные, только уже результат анализа. В бизнес-аналитике для этого чаще всего используются более простые механизмы, называемые машинным обучением, которые анализируют данные механически и вряд ли подойдут к этому творчески.

Вторая область ИИ - это вышеупомянутое распознавание вещей. Это касается как гаджетов, так и серьезных гражданских приложений (например, диагностика рака на основе методов визуализации или идентификация людей по их биометрическим данным) и военных приложений (например, распознавание военных объектов на спутниковых снимках). В этой области ИИ помогает людям делать то, что они могут делать сами, но в отличие от них он не устает, и мы предполагаем, что он не руководствуется предубеждениями.
ИИ для распознавания лиц Google Vision распознает человека по фотографии на основе черт его лица. Фото: Smith Collection/Gado/Getty Images
И наконец, в-третьих, ИИ используется в качестве интерфейса для общения с людьми. Здесь произошел сдвиг в подходе к программам. Ранее в сфере информационных технологий основное внимание уделялось тому, чтобы люди научились программировать, то есть переводить на машины то, чего они сами хотели добиться с их помощью. Они переводили с человеческого языка на компьютерный. В настоящее время парадигма другая: вместо того чтобы заставлять людей переводить что-то компьютерам, лучше научить компьютеры понимать нас. Тогда они смогут лучше помочь нам. Это касается таких решений, как чат-боты. И вот нам звонит робот-продавец солнечных батарей…

Или, как часть борьбы с пандемией - сочувственный голос, призывающий к вакцинации против COVID-19...

А это искусственные интеллекты, созданные для общения с людьми и понимания их. Этот LaMDA от Google - типичный чат-бот, созданный для общения с людьми на равных, как если бы он был человеком. Он был создан для того, чтобы не только понимать слова и предложения человека, но и проблему, которую они выражают. После чего она реагирует на него соответствующим образом, так, чтобы удовлетворить человека.

То есть, предполагается, что это искусственный друг человека.

Да. И мистер Блейк Лемуан, который тестировал механизм, пришел к выводу, что LaMDA уже сделал свою работу, то есть выполнил поставленную перед ним задачу достаточно хорошо, чтобы объявить его успешным.

Потому что на вопрос, знает ли он, чат-бот ответил, что да. Он ответил так, потому что этого от него ждали.

В ответ руководство Google заявило, что этот чат-бот выполнил свою работу - обманул вас, Блейк, и заставил думать, что он человек. Что ж, и это удалось. Это не значит, что бот осознает себя человеком только потому, что ему удалось обмануть вас, заставив думать, что он человек - что, кстати, вы сами и сделали, Блейк. Это подводит нас к вопросу, который не очень широко известен, но очевиден для всех, кто изучал информатику, а именно к тесту Тьюринга.

Математик Алан Тьюринг - отец компьютерной науки, создавший первый компьютер и концепцию программирования. Еще в 1950 году он опубликовал первую работу о том, смогут ли компьютеры в будущем мыслить. В нем он предложил тест, позволяющий определить, разговариваем ли мы с роботом или человеком. Это просто, и хотя планировалось, что это будет сделано по телефону, сегодня мы можем сделать это в чате. Таким образом, у пользователя на линии два "человека": человек и ИИ. Однако он или она не знает, кто из звонящих кому принадлежит. После долгого разговора на любую тему по выбору, он должен решить, кто из них человек. Если он ошибается, то машина прошла тест Тьюринга, поскольку успешно притворилась человеком.

Внутреннее пространство, или нанороботы в мозге

Устройства размером от 0,1 до нескольких миллиметров будут "плавать" в человеческом мозге.

узнать больше
В течение нескольких лет ставился вопрос о том, могут ли существующие искусственные интеллекты пройти тест Тьюринга. В социальных сетях есть даже группы, которые общаются с ботами и тестируют это. В прошлом у машин были проблемы, потому что люди не спрашивали их о каких-то интеллектуальных, связанных с сознанием вопросах, а просто об их детстве, первом поцелуе и т.д. А чтобы рассказывать такие истории, у бота должна быть своя встроенная легенда, свое прошлое. Поэтому подход был изменен, и теперь роботы открыто говорят, что они роботы - как видно из стенограммы беседы Лемуана с LaMDA. Эта модификация делает тест более сложным, так что вы должны сосредоточиться на том, чувствуете ли вы, что разговариваете с кем-то разумным или все еще ботом.

В любом случае, в заголовке своего твита Блейк Лемуан описал LaMDA не как "сознательный", а как "чувствующий". Поэтому он заявил, что созданный им бот прошел тест Тьюринга. Это гигантское событие, и Лемуан провозглашает, что то, чего люди, работающие над ИИ, пытались достичь годами, достигнуто. Корпорация Google, с другой стороны, скептически относится к трубе об успехе - либо она боится, либо считает, что выставит себя на посмешище.

Сегодня ведутся споры о том, является ли тест Тьюринга вообще надежным. В конце концов, многое зависит от того, кто его проводит и кого тестируют. Одного обманут, а другого нет, и что с этим делать - выводить среднее значение? Или вам нужно поставить под сомнение половину человечества, чтобы сделать вывод, что любой ИИ уже "мыслит"?

Кроме того, существуют этические вопросы. Ведь это нормально - стремиться обмануть людей, или мы действуем во вред им, чего роботам делать нельзя? Ведь, с одной стороны, создатели искусственных интеллектов хотят преодолеть магический барьер, а с другой стороны, с момента появления этих технологий звучали требования наложить ограничения на развитие ИИ. По их мнению, робот, прошедший тест Тьюринга, должен быть немедленно уничтожен?

Вопрос в том, чего мы на самом деле хотим достичь? Если мы говорим об использовании ИИ для анализа бизнес-данных или даже распознавания некоторых изображений, то машины могут быть мыслящими и умными, но они не притворяются людьми, они просто являются самими собой. Чат-боты, с другой стороны, имеют цель притвориться человеком, и именно это они и пытаются сделать. Так как же можно винить их за то, что они выполняют возложенную на них задачу и делают это все лучше и лучше? Это то, о чем говорит руководство Google: они очень хорошо притворяются людьми, но, конечно, это не так. Поэтому давайте позволим им притворяться людьми.
Робот Ai-Da - гуманоидный ультрареалистичный художник-искусственный интеллект - демонстрирует свои новые способности к рисованию в Британской библиотеке в Лондоне, 2022 год. Айдан Меллер, куратор выставки " Leaping into the metaverse", открывшейся на Венецианской биеннале в этом году, рассматривает картины этого робота. Фото: Hollie Adams/Getty Images
Мы не ожидаем, что бизнес-аналитика поможет нам обмануть налоговиков, и не ожидаем, что ИИ, анализирующий снимки компьютерной томографии, будет сострадательным и не доставит пациенту неудобств, обнаружив рак. От чат-ботов, с другой стороны, мы ожидаем понимания, поглаживания по голове, благодарности, интереса...

Эти устройства или системы сегодня действительно очень интеллектуальны, и стоит однажды пообщаться с таким чат-ботом на пробной основе. Для лучших проводится регистрация. Формируется комитет очереди для их проверки (смеется). Вот почему я бегу от этой фразы "осознанность", потому что не совсем понятно, что она означает. Если же мы спросим себя, разговариваем ли мы с мыслящим существом, то здесь уже трудно отрицать. В конце концов, эти механизмы делают в основном то же, что и люди: собирают информацию из окружающей среды, а затем объединяют определенные факты и делают выводы.

Однако люди, как социальные существа, вступают в определенные конвенции, накладывая на себя ограничения в отношении того, что они могут и не могут говорить. Научился ли ИИ такому самоконтролю? И могут ли у него быть чувства, похожие на человеческие?

Люди описывают свои ощущения интересным языком, потому что это в основном физиология, например: мое сердце бьется быстрее, у меня бабочки в животе, мои ноги подгибаются под меня, у меня мурашки по коже, у меня перехватывает дыхание и т.д. Они редко говорят о том, что происходит в их голове в это время, о наплыве мыслей или шуме в голове. Итак, если тело необходимо для чувств, можно ли научить чувствам искусственный интеллект, который их лишен?

Это возвращает нас к вопросу о том, хотим ли мы сделать ботов людьми, или мы хотим, чтобы они просто думали и подчинялись командам? Или, может быть, что-то другое? Потому что мы все время говорим в терминах, которые мне не очень нравятся: как бы отреагировал человек на месте машины. Мы делаем это, потому что думаем, что мы единственные в нашем мире, кто разумен или осведомлен. Мы не хотим представлять себе другое творение, которое также будет разумным или сознательным, но не будет человеком. Поэтому ни его интеллект, ни его сознание, что бы это ни значило, не будут человеческими.

Воображение человека склеивается из уже известных ему элементов, мы не можем поступить иначе. Вот почему мы не можем представить себе интеллект, отличный от человеческого.

ИИ сам говорит, что он не человек, т.е. это нечто другое, мыслящее. Что, конечно, поднимает тысячу этических вопросов. Ведь что произойдет, если на нашей планете появятся новые разумные существа, пусть даже разумные по-другому, которых к тому же мы сами создали, но которые вовсе не являются людьми? Должны ли они иметь какие-либо права? На данный момент мы хотим ограничить их права. История показывает, что такие действия вызывают противодействие в виде революции или восстания. Однако когда мы сами делаем из себя рабов, в какой-то момент происходит освобождение и равенство, или даже обратное господство. И как это будет выглядеть для искусственного интеллекта?

Мы будем платить за все с помощью QR-кода. Цифровые деньги наступают

Но полностью избавиться от наличных денег было бы безумием.

узнать больше
Вы навязываете человеческие шаблоны искусственному интеллекту и его отношениям с нами. Действительно, восстания рабов случались, но коровы послушно стоят в коровниках уже 12 000 лет и не перестают давать молоко в знак восстания. Именно чувства - хотя бы гнев - необходимы для восстания.... Только теперь я антропоморфирую роботов...

Мы не знаем, как именно они "думают", или они только делают вид, что думают, как мы, а на самом деле думают немного или совсем по-другому. Это очень сложный вопрос, потому что, как я уже говорил, вы не можете заглянуть "под капот". Кроме того, у людей по-разному развита эмпатия: одни люди будут симпатизировать машинам - возможно, они будут аболиционистами, а другие - нет.

Возьмем в качестве примера навигацию Google Maps, наверняка все пользовались ею. В нем ИИ готовит для нас маршрут на основе имеющихся у него данных. Каждый ИИ должен иметь определенную цель, т.е. ему нужно сказать, в чем заключается его успех. А это автоматически порождает систему наказаний и поощрений. Наградой здесь является достижение пункта назначения, за что алгоритм получает очки. Однако очень многие люди выключают навигацию непосредственно перед достижением пункта назначения, потому что, например, они уже знают местность, а вознаграждения за работу алгоритма нет. Теперь давайте представим, что ИИ сидит на месте существа, которое думает или чувствует как человек, и мы отказываемся платить ему за проделанную работу, иногда в течение длительного периода времени, прямо перед ударом часов - что он почувствует? Но как узнать, имеет ли ИИ в навигации тот же менталитет, что и мы, или у него другой? Мы ничего об этом не знаем - это факт.

На мой взгляд, ИИ - это механизм мышления. Не в том смысле, в котором это делают люди, но, тем не менее, там происходит какое-то мышление. Иногда мы ожидаем, что искусственные интеллекты сами что-то изобретут, но сначала их нужно чему-то научить. Точно так же, как и человек: необучаемый и нестимулируемый новорожденный ребенок никогда не будет развиваться интеллектуально или сенсорно. Главное - хорошо преподавать. Тем более, что сегодня инвесторов соблазняет искусственный интеллект - для них это "сексуально". Независимо от того, какая у вас бизнес-идея, в погоне за инвесторами вам все равно придется внедрять искусственный интеллект.

– интервью взяла Магдалена Кавалец-Сегонд
– Перевод Александр Кравченко

TVP ЕЖЕНЕДЕЛЬНИК. Редакторы и авторы

Фото The Software House / личный архив Марека Гайды
Марек Гайда – Магистр технических наук, главный технический директор и соучредитель компании The Software House, в частном порядке - увлечен темами искусственного интеллекта. Популяризатор ИИ, который стремится объяснить сложные вопросы в увлекательной и привлекательной форме тем, кто не знаком с технологиями. Как бывший программист, он выполнил десятки проектов на PHP, Node, Java, Ruby, Python и .NET. В 2020 году Clutch.co - портал организации, которая помогает компаниям найти делового партнера - назвал его The Software House лучшей компанией по разработке программного обеспечения в стране. Для более чем 100 компаний из 31 страны мира компания The Software House написала индивидуальные ИТ-решения.
Главное фото: Человекоподобный робот София, оснащенный искусственным интеллектом, на выставке Discovery 2018 в Торонто. Фото: Yu Ruidong/China News Service/Visual China Group via Getty Images
узнать больше
Диалоги wydanie 22.12.2023 – 29.12.2023
Японцы празднуют канун Рождества, как День святого Валентина
Они хорошо знают и любят одну польскую колядку: «Баю-бай Иисусик».
Диалоги wydanie 22.12.2023 – 29.12.2023
Красный бетон
Гомулка обрадовался, когда кто-то написал на стене: “ПРП - ***” (нецензурное слово из трех букв). Потому что ранее про Польскую рабочую партию, если и писали обидные эпитеты, то скорее такого типа:  "ПРП - продажные русские прислужники".
Диалоги wydanie 8.12.2023 – 15.12.2023
Половина мира называет матерей, отцов и цифры похоже звучащими...
Был ли у всех нас один праязык, как и один прародитель - Адам?
Диалоги wydanie 24.11.2023 – 1.12.2023
В школе нужно замедляться
Видео или искусственный интеллект - это ворота в сад знаний. Но оказывается, что желающих по-настоящему учиться слишком мало.
Диалоги wydanie 17.11.2023 – 24.11.2023
Именно здесь находилась реальная столица Третьего рейха
Адольф Гитлер провел в “Волчьем логове” 836 дней, где ему верно служили 2500 человек в 200 железобетонных зданиях.