Медитация на искусственный интеллект

thoughtful emoticon

Chobits мне как-то не очень нравится. Терпеть не могу таких протагонистов — сверхэмоциональных, несдержанных оболтусов, которые отмачивают не менее трех бессмыслиц за серию. Таких бессмыслиц из-за которых вся улица оборачивается и начинает бочком пробираться к выходу. По телевизору я бы это смотреть не смог… Но тематика все-таки родная донельзя.

Так вот, мне пришла в голову любопытная мысль. На самом деле, она посещает мою голову уже не первый раз, но в этот раз я придумал более или менее четкую формулировку и решил высказать ее подробнее.

Тест Тьюринга так или иначе принято определять в форме «если оно ведет себя как человек, то оно является искусственным интеллектом». Но имеет ли такая постановка задачи смысл? Поясняю.

Что является конечной целью всех манипуляций человечества с искусственным интеллектом? Очевидно, решение практических задач, получение системы, способной заменить человека в некоей деятельности. Создание гуманоидного робота — предельный случай такой системы. Гуманоидный робот, полностью имитирующий разумное существо, хорош в фантастике, поскольку позволяет поднять проблемы идентификации и самоидентификации, природы эмоционального и духовного, и так далее. Но на практике, нашей целью не является получение синтетического человека, полностью идентичного природному по достоинствам и не имеющего недостатков. Дешевле встанет нанять двух или трех людей, благо, развелось их несметное множество. Нашей целью является решение практических задач — например, в тех же Chobits, задач навигации, поиска, бухгалтерии, уборки — в общем, робот должен не имитировать человека полностью, а предоставлять интерфейс на естественном языке, поддерживающий очень широкий набор синонимов, и уметь выполнять работу, и только. Его функции связанные с выполнением задач можно реализовать как при помощи общей обучающейся системы, реализованной сообразно модели имитации другого, так и непосредственно программируя его — при этом, процессы эти будут структурно эквивалентны. Причем наворочав достаточное количество программ для различного рода действий, и грамотно построив систему выбора линии поведения на основании входящих данных, мы можем получить систему, удовлетворительно действующую в пожизненных условиях. Ну и хрен с ней, что она при виде инопланетянина будет вставать намертво и говорить wakaranai, а мы что, не встали бы? Сам человек склонен в случае столкновения с ситуацией, для которой не существует готовой поведенческой программы, отказываться от полученной внешней информации до тех пор пока не подгонит ситуацию под существующую поведенческую программу. Случаи выработки полностью новой поведенческой программы на месте — большая редкость.

Таким образом задачу следует переосмыслить как «если оно ведет себя как искусственный интеллект, то оно является искусственным интеллектом», то есть определить цель как наши ожидания от такой системы. Не больше, не меньше. И тогда все встанет на свои места.

В общем, искусственный интеллект на уровне гуманоидного робота может оказаться ближе чем мы думаем.

P.S. Интересно, является ли у человека текущее поведение функцией поведения за прошедшую единицу времени, или функцией последнего действия?