ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ

Тест Тьюринга известен каждому человеку, интересующемуся искусственным интеллектом. Его сформулировал в 1938 г. Алан Тьюринг в статье “Может ли машина мыслить?”. Тест заключается в следующем. Экспериментатор общается с собеседником, не видя его (например, по компьютерной сети), набирая фразы на клавиатуре и получая текстовый ответ на мониторе. Затем он пытается определить, с кем вел разговор. Если экспериментатор принимает компьютерную программу за человека, значит, она прошла тест Тьюринга и может считаться интеллектуальной.

Золотую медаль получит все же человек

Наиболее известной программой, еще в 60-х годах показавшей реальную возможность прохождения этого теста, стала легендарная ELIZA. Она была создана в 1966 г. учеными Виноградом, Вейценбаумом и Колби. ELIZA находила в фразе ключевые слова (например, “мать”) и выдавала шаблонную просьбу, механически на эти слова реагируя (“Расскажите побольше о вашей матери”). В дальнейшем Тодди Виноград на основе ELIZA создал более совершенный вариант “Психотерапевт”. Появление ELIZA вошло в историю искусственного интеллекта наряду с такими событиями, как выпуск первого промышленного робота в 1962 г. или начало финансирования Пентагоном разработок в области распознавания образов и речи в 1975-1976 гг.

В 1991 г. впервые состоялся частный, но весьма солидный турнир по прохождению теста Тьюринга, на который были приглашены авторы подходящих компьютерных программ (называемых ботами). Этот турнир основал Хью Лебнер (www.loebner.net/Prizef/loebner-prize.html). За победу в нем полагались приз в размере 100 тыс. долл. и золотая медаль.

Пока главный приз не достался никому. Однако в 1994 г. Лебнер внес серьезные изменения в правила, потребовав, чтобы программа общалась с судьей не только в текстовом формате, но и путем генерации изображения виртуального человека. Она также должна уметь синтезировать и распознавать речевую информацию. Эти условия многие сочли крайне трудными, и до сих пор претендентов на главный приз по новым правилам не появилось. А за победу в старом, “текстовом” режиме теперь обещаны 25 тыс. долл. и серебряная медаль. Надо отметить, что вероятность субъективной ошибки судьи при общении с программой по старым правилам достаточно высока. Кроме того, боты совершенствуются довольно-таки быстро, и мы наверняка дождемся в ближайшие годы победителя в тесте Тьюринга.

Судейство на конкурсе очень строгое. Эксперты заранее готовятся к турниру и подбирают весьма заковыристые вопросы, чтобы понять, с кем же они общаются. Их разговор с программами напоминает допрос следователя. Судьи любят, например, повторять некоторые вопросы через определенное время, так как слабые боты не умеют следить за историей диалога и их можно поймать на однообразных ответах.

Но и разработчики не теряют времени даром, настраивая своих виртуальных подопечных таким образом, чтобы на провокационные вопросы типа “вы машина или человек?” программа весьма убедительно отвечала: “Конечно, человек!”.

8 ноября 1991 г. в Бостонском компьютерном музее восемь программ вступили в схватку с живыми экспертами. Результат был ошеломляющим. Пять из десяти судей решили, что под псевдонимом Whimsical Conversation скрывается человек. На самом деле это была программа Therapist, работавшая под управлением IBM PC 386 и созданная в 1986 г. на основе легендарной ELIZA Джозефом Вейнтраубом, специалистом по психологии. Впрочем, такой результат во многом связан со скептицизмом и предубеждением экспертов, считавших, что программы общаются на гораздо более примитивном уровне, чем это было в реальности. В дальнейшем судьи освоились с компьютерной манерой общения, и столь успешного результата ботам с тех пор достичь не удалось.

Первоначально Therapist состояла из семи модулей, написанных на Си, Turbo-Prolog и QuickBasic. Позже она была дополнена системой синтеза речи и базой знаний. Программа использует словарь из 70 000 слов и запоминает все, что ей рассказывают, используя эту информацию в следующих диалогах и подстраиваясь под интересы конкретного собеседника. Therapist выигрывала приз Лебнера еще в 1992, 1993 и 1995 гг. Затем она была усилена специализированными модулями, способными поддерживать разговоры на темы “мужчина против женщины” и “либералы против консерваторов”.

Вот пример из одного ее победного диалога:

Судья: Do you think that American soldiers should go to Bosnia?

Therapist: I think that what clinton has done in sending 20,000 peacekeepers to bosnia will ensure a lasting peace.

Судья: Do you think most Americans feel the way you do?

Therapist: What did you mean when you said do you think that american soldiers should go to bosnia? Did anyone ever tell you that you think too much? Oh, I think most americans feel the way i do?

В 1994 г. победу в турнире одержал Томас Вайлен, доктор экспериментальной психологии, специализирующийся на изучении естественных языков. Его программа TIPS была обучена хранить и анализировать фразы (в базе их было несколько тысяч) и выполнять поиск по лексическим шаблонам.

В 1996 г. бронзовую медаль получил Джейсон Хатченс и его бот SEPO, который общался примерно так:

Судья: I think. I do research. I write. I love. I Live.

SEPO: I wonder whether you think sometimes! I am feeling like the judge here!

В 1997 г. чемпионом стал Дэвид Леви с ботом Converse. В 1998-м и 1999-м победы добивался Робби Гарнет, считающий, что прохождение теста Тьюринга не требует реального интеллекта. Интересно, что почти все авторы, упоминая о научных подходах к обучению (нейронные сети, генетические алгоритмы), обходились в своих решениях достаточно простыми эвристическими методами.

Гарнет выставил на состязание программу Computational Behaviorist, основанную на принципе “стимул - реакция”, схожем с тем, что заложен в TIPS и ELIZA. Только его бот искал не одно, а до трех ключевых слов в фразе. В то же время, понимая, что от программы требуется нечто большее, чем однообразный ответ на вопросы, он встроил в нее ряд дополнительных эвристических алгоритмов, создававших более полную иллюзию общения с человеком.

В ходе разработки Behaviorist возникли технические трудности, связанные со сложностью реализации поиска знаний в крупных по тем временам базах, что приводило к заметным временны’м задержкам в общении, сразу выдававшим компьютерного собеседника. Поэтому Гарнет объединил два общедоступных бота - Albert, написанный на С++, и одну из Паскаль-версий ELIZA и реализовал их в среде разработки Visual DataFlex, позволявшей пользоваться стандартными алгоритмами запросов к БД.

В 2000-м и 2001 г. малый приз доставался программе ALICE Ричарда Уоллеса. Сегодня на базе ALICE организован фонд ALICE AI Foundation (http://alice.sunlitsurf.com/), занимающийся стандартизацией деятельности по созданию ботов. В частности, ALICE дополнена средствами поддержки БД в формате AIML (Artificial Intelligence Markup Language) - подмножестве XML, нацеленном на формализацию представления ключевых фраз и ответов. Теперь любой желающий, незнакомый с программированием, может взять базовый вариант ALICE и наполнить его собственной базой знаний на любом языке, используя обычный редактор.

К сожалению, летом этого года, как сообщило издание Wired, у г-на Уоллеса начались проблемы с психикой (он угрожал одному из своих коллег-профессоров физической расправой, утверждая, что в ряде американских университетов процветает коррупция и в отношении Уоллеса преподавательским составом задуман масштабный заговор). Пока ученый находится под следствием.

Одним из наиболее вероятных претендентов на победу в текущем году (турнир пройдет в октябре) считается Смит Джошуа, автор программы Anna (AIML-расширение ALICE, свободно доступное на сайте http://annabot.sourceforge.net/). Г-н Джошуа отмечает, что в отличие от своих коллег он с самого начала создавал бот, выдающий себя в процессе общения за человека. Anna действительно считает себя живым существом, обладает набором индивидуальных качеств и достаточно бойко ведет разговор.

Есть ли подобные российские разработки - боты, способные общаться на русском языке? Редакция PC Week/RE готова провести российский конкурс на прохождение теста Тьюринга. Напишите автору по адресу: [email protected].

Тест Тьюринга – это тест, как следует из названия, предложенный Аланом Тьюрингом, для определения обладает ли машина интеллектом. Тьюринг решил, что нет смысла разрабатывать обширный список требований, необходимых для создания искусственного интеллекта, который к тому же может оказаться противоречивым, и предложил тест, основанный на том, что поведение объекта, обладающего искусственным интеллектом, в конечном итоге нельзя будет отличить от поведения таких бесспорно интеллектуальных сущностей, как человеческие существа. Компьютер успешно пройдет тест Тьюринга, если человек-экспериментатор, задавший ему в письменном виде определенные вопросы, не сможет определить, получены ли письменные ответы от другого человека или от некоторого устройства. На данный момент составление программы для компьютера, чтобы он прошел тест Тьюринга, требует большого объема работы. Запрограммированный таким образом компьютер должен включать в себя:

  • средства обработки текстов на естественных языках (Natural Language Processing – NLP), позволяющие успешно общаться с компьютером, скажем на английском языке;
  • средства представления знаний, с помощью которых компьютер может записать в память то, что он узнает или прочитает;
  • средства автоматического формирования логических выводов, обеспечивающие возможность использовать хранимую информацию для поиска ответов на вопросы и вывода новых заключений;
  • средства машинного обучения, которые позволяют приспосабливаться к новым обстоятельствам, а также обнаруживать и экстраполировать признаки стандартных ситуаций.

В тесте Тьюринга сознательно исключено непосредственное физическое взаимодействие экспериментатора и компьютера, поскольку для создания искусственного интеллекта не требуется физическая имитация человека. Но в так называемом полном тесте Тьюринга предусмотрено использование видеосигнала для того, чтобы экспериментатор мог проверить способности испытуемого объекта к восприятию, а также имел возможность представить физические объекты «в неполном виде» (пропустить их «через штриховку»).

Тьюринг предсказывал, что компьютеры в конечном счёте пройдут его тест. Он считал, что к 2000 году компьютер с памятью 1 миллиард бит (около 119 МБ) в ходе 5-минутного теста сможет обмануть судей в 30 % случаев.

Это предсказание не сбылось. Тьюринг также предсказал, что сочетание «мыслящая машина» не будет считаться оксюмороном, а обучение компьютеров будет играть важную роль в создании мощных компьютеров (с чем большинство современных исследователей согласны).

Пока что ни одна программа и близко не подошла к прохождению теста Тьюринга. Такие программы, как Элиза (ELIZA), иногда заставляли людей верить, что они говорят с человеком, как, например, в неформальном эксперименте, названном AOLiza. Но такие «успехи» не являются прохождением теста Тьюринга. Во-первых, человек в таких беседах не имел никаких оснований считать, что он говорит с программой, в то время как в настоящем тесте Тьюринга человек активно пытается определить, с кем он беседует. Во-вторых, документированные случаи обычно относятся к таким чатам, где многие беседы отрывочны и бессмысленны. В-третьих, многие пользователи чатов используют английский как второй или третий язык, и бессмысленный ответ программы, вероятно, спишется ими на языковый барьер. В-четвертых, многие пользователи ничего не знают об Элизе и ей подобных программах и не могут распознать совершенно нечеловеческие ошибки, которые эти программы допускают.

Ежегодно производится соревнование между разговаривающими программами и наиболее человекоподобной, по мнению судей, присуждается приз Лебнера. Есть также дополнительный приз для программы, которая, по мнению судей, пройдет тест Тьюринга. Этот приз еще не присуждался. Самый лучший результат показала программа A.L.I.C.E. выиграв приз Лебнера 3 раза (в 2000, 2001 и 2004).

Несмотря на то, что прошло больше 50 лет, тест Тьюринга не потерял своей значимости. Но в настоящее время исследователи искусственного интеллекта практически не занимаются решением задачи прохождения теста Тьюринга, считая, что гораздо важнее изучить основополагающие принципы интеллекта, чем продублировать одного из носителей естественного интеллекта. В частности, проблему «искусственного полета» удалось успешно решить лишь после того, как братья Райт и другие исследователи перестали имитировать птиц и приступили к изучению аэродинамики. В научных и технических работах по воздухоплаванию цель этой области знаний не определяется как «создание машин, которые в своем полете настолько напоминают голубей, что даже могут обмануть настоящих птиц».

Компьютерная программа, убедила людей, что она является 13-летним мальчиком и тем самым стала первой программой, прошедшей тест Тьюринга.

Тьюринг создал тест для определения того, может ли машина мыслить.

Оригинальный тест состоит в следующем. Человек в течении 5 минут общается с одним компьютером и одним человеком. Получая ответы на вопросы, человек должен определить, что разговаривает с человеком или компьютерной программой. Задачей компьютерной программы является ввести человека в заблуждение, чтобы тот сделал ошибочный выбор.

Участники теста не видят друг друга. В случае, если судья не может точно сказать, кто из собеседников человек, то считается, что компьютер прошел тест. Беседа ведется в режиме «только текст», например, с помощью клавиатуры и экрана (второстепенного компьютера). Это необходимо, чтобы протестировать именно интеллект машины, а не её возможность распознавать устную речь. Переписка производится через контролируемые промежутки времени, чтобы судья не мог делать заключения, исходя из скорости ответов (в наши дни компьютеры реагируют быстрее чем человек).

Для прохождения теста необходимо, чтобы компьютерная программа смогла обмануть 30 процентов людей.

Компьютерная программа «Евгений Густман», создана командой разработчиков из России, прошла тест, проведенный в Королевском обществе в Лондоне. Она убедила 33 процента судей, в том, что она является 13-летним мальчиком из Одессы, сообщили ученые из Университета Рединга, которые организовали этот тест.

«Наша главная идея заключалась в том, что он может утверждать, что чего-то не знает, в его возрасте действительно он может не знать каких-то вещей» — сказал Владимир Веселов, один из создателей программы, - «Мы потратили много времени на разработку правдоподобного персонажа.»

Успех программы, скорее всего, создаст некоторые опасения по поводу будущего компьютеров, сказал Кевин Уорвик, профессор Университета Рединга и проректор по исследовательской работе в университете Ковентри.

«В области искусственного интеллекта нет более знаковых и противоречивых этапов, чем тест Тьюринга, когда компьютер убеждает достаточное количество судей, в том, что это не машина, а человек» — сказал он. «Имея компьютер, который может обмануть человека, заставить его подумать, что кто-то или даже что-то является человеком, это является тревожным сигналом, связанным с киберпреступностью. Тест Тьюринга является очень важным инструментом для борьбы с этой угрозой. Важно полностью понять, как общение в Интернете в реальном времени может ввести в заблуждение человека, полагающего истинность что-то в то время, когда на самом деле это не так.»

В тесте, организованном в Королевском обществе в субботу, принимало участие пять программ. Судьями были актер Robert Llewellyn, который играл робота Kryten в «Красном карлике» (научная комедия телеканала BBC), и лорд Шарки, который возглавлял кампанию, целью которой была посмертная реабилитация Алана Тьюринга в прошлом году.

Алан Тьюринг представил свой тест в 1950 в статье, «Вычислительная техника и разум». В ней он заявил, из-за того, что «мышление» трудно определить, важно, сможет ли компьютер имитировать реальное человеческое существо. С тех пор он стал одним из ключевых элементов философии искусственного интеллекта.

Успех пришел на 60-летие со дня смерти Тьюринга, в субботу 07.06.2014 года.

Источник: The Independent

P.S. Самостоятельно проверить насколько умна эта программа можно на сайте лаборатории искусственного интеллекта Принстонского университета. Лично у меня не сложилось впечатления что я разговариваю с человеком, пусть даже и с ребенком. Так что тест Тьюринга, мне кажется, не совсем еще пройден.

Как вы оцениваете эту публикацию?

Словосочетание «тест Тьюринга» правильнее использовать для обозначения предложения, которое касается вопроса о том, могут ли машины мыслить. По мнению автора, такая постановка «слишком бессмысленна», чтобы заслуживать обсуждения. Однако если рассмотреть более конкретный вопрос о том, способен ли цифровой компьютер справиться с некоего рода игрой в имитацию, то появляется возможность точного обсуждения. Более того, сам автор считал, что пройдет не слишком много времени - и появятся вычислительные устройства, которые будут в этом очень «хороши».

Выражение «тест Тьюринга» иногда используется в более общем смысле для обозначения некоторых поведенческих исследований присутствия разума, мысли или интеллекта у предположительно разумных субъектов. Так, например, иногда высказывается мнение, что прообраз теста описан в «Дискурсе о методе» Декарта.

Кто придумал тест Тьюринга?

В 1950-м увидела свет работа «Вычислительные машины и интеллект», в которой впервые была предложена идея игры в имитацию. Тот, кто придумал тест Тьюринга, - английский ученый в области информатики, математик, логик, криптоаналитик и биолог-теоретик Алан Мэтисон Тьюринг. Его модели позволили формализовать концепции алгоритма и вычислений, а также внесли вклад в теории искусственного интеллекта.

Игра в имитацию

Тьюринг описывает следующий вид игры. Предположим, есть человек, машина и лицо, задающее вопросы. Интервьюер находится в комнате, отделенной от остальных участников, которые проходят тест Тьюринга. Цель теста состоит в том, чтобы задающий вопросы определил, кто является человеком, а кто машиной. Интервьюеру оба испытуемых известны под метками X и Y, но по крайней мере в начале ему неизвестно, кто скрывается за меткой Х. В конце игры он должен сказать, что Х - это человек, а Y - это машина, или наоборот. Интервьюеру разрешено задавать испытуемым вопросы теста Тьюринга следующего вида: «Ну будет ли Х любезен сказать мне, играет ли Х в шахматы?» Тот, кто является Х, должен отвечать на вопросы, адресованные Х. Цель машины состоит в том, чтобы ввести в заблуждение спрашивающего, и тот ошибочно сделал вывод о том, что она - человек. Человек же должен помочь установить истину. Об этой игре Алан Тьюринг в 1950 году сказал: «Я считаю, через 50 лет можно будет запрограммировать компьютеры с объемом памяти около 10 9 таким образом, что они успешно смогут играть в имитацию, и средний интервьюер с вероятностью, превышающей 70%, за пять минут не будет в состоянии угадать, кто является машиной».

Эмпирический и концептуальный аспекты

Существует как минимум два вида вопросов, которые возникают относительно предсказаний Тьюринга. Во-первых, эмпирический - правда ли, что уже есть или вскоре появятся компьютеры, способные играть в имитацию настолько успешно, что средний интервьюер с вероятностью, не превышающей 70%, сделает правильный выбор в течение пяти минут? Во-вторых, концептуальный - правда ли, что если бы средний интервьюер после пяти минут допроса с вероятностью менее 70% правильно идентифицировал человека и машину, то мы должны сделать вывод, что последняя демонстрирует некоторый уровень мышления, интеллекта или разума?

Конкурс Лебнера

Мало кто сомневается, что Алан Тьюринг был бы разочарован положением дел с игрой в имитацию к концу ХХ века. Участники конкурса Лебнера (ежегодного мероприятия, в ходе которого компьютерные программы подвергаются тесту Тьюринга) далеки от стандарта, представленного основоположником информатики. Беглый взгляд на протоколы участников за последние десятилетия показывает, что машину можно легко обнаружить с помощью не очень изощренных вопросов. Более того, наиболее успешные игроки постоянно заявляют о сложности конкурса Лебнера по причине отсутствия компьютерной программы, которая бы могла вести достойный разговор в течение пяти минут. Общепризнанным является факт, что конкурсные приложения разрабатываются исключительно с целью получения малого приза, присуждаемого лучшему участнику года, и на большее они не рассчитаны.

Тест Тьюринга: прохождение затягивается?

К середине второго десятилетия XXI века ситуация почти не изменилась. Правда, в 2014 г. возникли претензии на то, что компьютерная программа Eugene Goostman прошла тест Тьюринга, когда она обманула 33% судей в соревновании 2014 г. Но были и другие разовые соревнования, в которых были достигнуты аналогичные результаты. Еще в 1991 году PC Therapist ввел в заблуждение 50% судей. И в демонстрации 2011 г. Cleverbot имел даже более высокий показатель успеха. Во всех этих трех случаях продолжительность процесса была очень мала, и результат не был надежен. Ни один из них не дал веских оснований полагать, что средний интервьюер с вероятностью более 70% правильно идентифицирует отвечающего в течение 5-минутного сеанса.

Метод и прогноз

Кроме того, и это гораздо важнее, необходимо различать тест Тьюринга и предсказание, которое он сделал о его прохождении к концу ХХ века. Вероятность правильной идентификации, интервал времени, в течение которого происходит испытание, и количество необходимых вопросов являются регулируемыми параметрами, несмотря на их ограничение конкретным прогнозом. Даже если основоположник информатики был очень далек от истины в предсказании, которое он сделал о ситуации с искусственным интеллектом к концу ХХ века, вполне вероятна справедливость предложенного им метода. Но прежде чем одобрить тест Тьюринга, следует рассмотреть различные возражения, которые необходимо учесть.

Обязательно ли уметь говорить?

Некоторые люди считают тест Тьюринга шовинистическим в том смысле, что он признает разум только в объектах, которые способны поддерживать беседу с нами. Почему не могут существовать разумные объекты, неспособные вести разговор, или, во всяком случае, беседу с людьми? Возможно, мысль, стоящая за этим вопросом, верна. С другой стороны, можно предположить наличие квалифицированных переводчиков для любых двух интеллектуальных агентов, говорящих на разных языках, позволяющих вести любой разговор. Но в любом случае обвинение в шовинизме совершенно к делу не относится. Тьюринг утверждает лишь то, что если что-то может вести беседу с нами, то у нас есть веские основания полагать наличие у него сознания, подобного нашему. Он не говорит, что только способность вести беседу с нами свидетельствует о потенциальном обладании разумом, похожем на наш.

Почему так легко?

Другие считают тест Тьюринга недостаточно требовательным. Существуют анекдотичные доказательства того, что совершенно бестолковые программы (например, ELIZA) могут казаться обычному наблюдателю обладателями интеллекта в течение достаточно продолжительного времени. Кроме того, за такое короткое время, как пять минут, вполне вероятно, что почти все интервьюеры могут быть обмануты хитрыми, но совершенно неразумными приложениями. Однако важно помнить, что программа тест Тьюринга не может пройти, обманув «простых наблюдателей» в иных условиях, чем те, в которых проверка должна происходить. Приложение должно быть в состоянии выдержать допрос того, кто знает, что один из двух других участников беседы является машиной. Кроме того, программа должна выдерживать такой допрос с высокой степенью успешности после многократного числа испытаний. Тьюринг не упоминает о том, какое конкретно количество тестов потребуется. Однако можно смело предположить, что их число должно быть достаточно большим, чтобы можно было говорить о среднем значении.

Если программа способна на это, то кажется правдоподобным утверждение, что мы, по крайней мере предварительно, будем иметь основания предполагать присутствие интеллекта. Возможно, стоит подчеркнуть еще раз, что может существовать умный субъект, в том числе и умный компьютер, тест Тьюринга пройти не сумевший. Можно допустить, например, существование машин, которые отказываются лгать по моральным соображениям. Поскольку предполагается, что участник-человек должен делать все возможное, чтобы помочь интервьюеру, то вопрос «Вы - машина?» позволит быстро отличить таких патологически правдивых субъектов от людей.

Почему так сложно?

Есть и сомневающиеся в том, что машина когда-либо сможет пройти тест Тьюринга. Среди выдвигаемых ими аргументов - различие времени распознавания слов на родном и иностранном языке у людей, способность ранжировать неологизмы и категории и наличие других особенностей человеческого восприятия, которые трудно симулировать, но которые несущественны для наличия разума.

Почему дискретная машина?

Еще одним спорным аспектом работы теста Тьюринга является то, что его обсуждение ограничено «цифровыми компьютерами». С одной стороны, очевидно, что это важно лишь для прогноза, а не касается подробностей самого метода. Действительно, если тест достоверный, то он подойдет для любой сущности, в том числе для животных, инопланетян и аналоговых вычислительных устройств. С другой стороны, весьма спорно утверждение о том, что «думающие машины» должны быть цифровыми компьютерами. Также вызывает сомнения то, что так полагал сам Тьюринг. В частности стоит отметить, что седьмое возражение, рассматриваемое им, касается возможности существования машин непрерывных состояний, которые автор признает отличными от дискретных. Тьюринг утверждал, что даже если мы являемся автоматами непрерывных состояний, то дискретная машина сможет хорошо подражать нам в игре в имитацию. Однако кажется сомнительным, что его соображения достаточны для того, чтобы установить, что при наличии машин непрерывных состояний, прошедших тест, можно сделать дискретный конечный автомат, который также успешно справится с этим испытанием.

В целом, важным моментом представляется то, что хотя Тьюринг признавал наличие значительно более обширного класса машин, помимо дискретных конечных автоматов, он был уверен в том, что правильно спроектированный дискретный автомат может преуспеть в игре в имитацию.

Текст
Артём Лучко

Британский университет Рединга с большой помпой объявил, что миновала «важная веха в истории вычислительной техники» и компьютер впервые прошёл корректно поставленный тест Тьюринга, введя в заблуждение судей, которые поверили, что общаются с 13-летним украинским мальчиком. Look At Me разобрался в том, что кроется на самом деле за этим событием.

Что собой представлял эксперимент


Университет Рединга, специалисты которого провели первый успешный тест Тьюринга

Тестирование чат-ботов было организовано Школой системной инженерии при университете Рединга к 60-летию кончины Алана Тьюринга. Эксперты общались одновременно с живым человеком и с программой, находясь в разных комнатах. По окончании теста каждый из судей должен заявить, кто из двух его собеседников - человек, а кто - программа. Для чистоты эксперимента были задействованы пять компьютеров и 30 судей, каждый из которых провёл серию из 10 письменных диалогов длительностью по 5 минут. Хотя обычно в ежегодном конкурсе программ искусственного интеллекта на премию Лёбнера (в котором программы соревнуются в прохождении теста Тьюринга за приз $2000) принимают участие всего 4 чат-бота и 4 человека. В результате эксперимента программа Eugene Goostman сумела убедить 33 % состава жюри в своей «человечности», что произошло первый раз в истории. Роберт Луэллин, один из судей, британский актёр и любитель технологий сказал:

Тест Тьюринга был удивительным. Состоялись 10 сеансов по 5 минут, 2 экрана, 1 человек и 1 машина. Я угадал правильно только 4 раза. Этот робот оказался умным малым...

Чат-бот Eugene Goostman был разработан выходцем из России Владимиром Веселовым (сейчас он проживает в США) и украинцем Евгением Демченко, живущим в России. Первая версия появилась ещё в 2001 году. Возраст подростка был выбран неслучайно: в 13 лет ребёнок уже многое знает, но далеко не всё, что усложняет задачу судей. В 2012 году чат-бот уже подобрался довольно близко к успеху: тогда в «человечность» украинского школьника поверили 29 % из числа судей. В ходе последних доработок программистам удалось подготовить виртуального собеседника ко всем возможным вопросам и даже обучить его подбирать примеры ответов в «Твиттере».

Что такое тест Тьюринга,
и в чём его недостатки


Алан Тьюринг в возрасте 16 лет

Тест Тьюринга был впервые предложен британским математиком Аланом Тьюрингом в статье «Вычислительная техника и интеллект», опубликованной в журнале Mind в 1950 году. В ней учёный задался простым вопросом: «Может ли машина мыслить». В своей самой простой форме тест заключается в следующем: человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы - ввести человека в заблуждение, заставив сделать неверный выбор. Тест подразумевает пятиминутный текстовый диалог, в ходе которого минимум 30 % судей должны поверить, что они имеют дело с человеком, а не машиной. При этом, разумеется, все участники теста не видят друг друга.


Джон Серл, американский философ

Есть много различных версий этого испытания (в некоторых вариациях судья знает, что одним из проверяемых собеседников является компьютер, в других - не знает об этом), но многие учёные и философы критикуют его по сей день. В своё время американский философ Джон Серл бросил тесту вызов своим мысленным экспериментом, известным как «Китайская комната». Он позволил себе предположить, что способность компьютера вести разговор и убедительно отвечать на вопросы - далеко не то же самое, что иметь разум и мыслить, как человек. «Предположим, что меня заперли в комнате и [...] что я не знаю ни одного китайского слова, ни письменно, ни устно», - пишет Серл в 1980 году. Он представил, что получал вопросы, написанные на китайском языке через щель в стене. Он не был в состоянии прочитать эти символы, но имел набор инструкций на английском, которые позволяли ему реагировать на «один набор формальных символов другим набором формальных символов». Таким образом, Серл теоретически смог бы отвечать на вопросы, просто следуя правилам английского и выбирая правильные китайские иероглифы. И его собеседники были бы убеждены, что он может говорить по-китайски.

Большинство критиков теста Тьюринга как способа оценки искусственного интеллекта придерживаются аналогичного мнения. Они утверждают, что компьютеры могут только использовать наборы правил и огромные базы данных, запрограммированных для ответов на вопросы, чтобы лишь казаться разумными.

Как программа обманула жюри


Профессор университета Рединга Кевин Уорвик

У Eugene Goostman имеется два фактора, которые помогли ему пройти тест. Во-первых, грамматические и стилистические ошибки, которые допускает машина в подражание письму подростка, а во-вторых, отсутствие знаний о специфических культурных и исторических фактах, которое также может быть списано на возраст школьника.

В процессе разработки искусственного интеллекта нет более знакового и противоречивого этапа, чем прохождение теста Тьюринга

«Успех программы, скорее всего, пробудит некоторые опасения по поводу будущего информационных технологий, - заявил профессор университета Рединга Кевин Уорвик. - В процессе разработки искусственного интеллекта нет более знакового и противоречивого этапа, чем прохождение теста Тьюринга, когда компьютер убеждает достаточное количество судей полагать, что с ними общается не машина, а человек. Само существование компьютера, который может обмануть человека, заставив его думать, что он - это человек, является тревожным сигналом, связанным с киберпреступностью». Тест Тьюринга по сей день является важным инструментом в борьбе с этой угрозой. И теперь специалистам предстоит более полно разобраться, как появление подобных продвинутых чат-ботов может повлиять на онлайн-общение в интернете.

Судя по логам, которые можно найти в Сети (опробовать бот самостоятельно пока не получается, вероятно, из-за ажиотажа сайт не выдержал трафика и «упал»), чат-бот довольно-таки примитивен и, как кажется на первый взгляд, не сильно отличается от похожих разработок, которые можно найти в интернете. Один из любопытных диалогов с «Евгением» представил журналист Леонид Бершидский, который задавал ему неудобные вопросы о громком событии, которое не могло пройти мимо юного одессита.

Даже учитывая проработанный характер и биографию, ошибки и опечатки, которые может допускать реальный подросток, убедительность бота вызывает сомнения. По сути, он также реагирует на ключевые слова, а когда его ставят в тупик, он выдает заранее заготовленные и не самые оригинальные ответы-заглушки. Если бы программа имела возможность использовать поисковые системы, чтобы находиться в контексте текущей ситуации в мире, мы могли бы видеть гораздо более впечатляющий результат. Вероятно, на это нужно время. Ранее известный футуролог Реймонд Курцвейл, занимающий должность технического директора Google, заявлял , что компьютеры смогут с лёгкостью проходить тест Тьюринга к 2029 году. По его предположениям, к этому времени они смогут освоить человеческий язык и превзойти интеллектом людей.

7 суперкомпьютеров, способных обхитрить человека

ELIZA