Технополис завтра
Самое важное. Самое полезное. Самое интересное...
Новости Интересное

Робот — «я» или «оно»? (UNI9)

Источник: crustgroup

В английском языке есть интересная грамматическая коллизия: в третьем лице единственного числа все существительные могут заменяться, в зависимости от значения, на «он» (he), «она» (she) или же безликое «оно» (it). При этом не имеет значения, о ком мы говорим — о быке или о корове, о волке или о волчице — даже в случае животных мы всегда будем ставить в предложении бесполое и безликое  личное местоимение it.

А вот в случае разговора о людях или же в случае совсем уж персонифицированного рассказа о животных, надо обязательно употреблять местоимения he и she.
Ну а какое-нибудь здание или автомобиль — так они и вообще всегда it.

Но есть в английском языке и интересные исключения из правил. Например, морской корабль (судно) — это she. «Она». Она несёт нас по волнам, она защищает нас от бури своими деревянными стенами. И никак иначе.

Те же коллизии есть и у Айзека Азимова в его длинном сборнике рассказов под общим названием «Я, робот».

Роботы, начав свой поход вперёд от безликого «оно», на протяжении связанных во времени рассказов, всё больше и больше обретают своё особенное «я», в конце цикла превращаясь в практически идентичные копии людей.

Когда-то считалось, что показателем «разумности» робота будет его возможность обыграть человека в шахматы. В принципе, это уже давно свершилось. В итоге людям, для оправдания уникальности своей роли в наблюдаемой Вселенной, пришлось сосредоточиться на таких гораздо менее осязаемых вещах, как «симфония» или «шедевр». Вопрос, заданный героем Уилла Смита роботу в экранизации произведения Айзека Азимова звучал именно так. Но непрозвучавший ответ робота Санни мог вполне выглядеть и вот так. Нецензурно, зато по делу.

Но что может сулить нам такое будущее? Будущее, в котором робот всё-таки сможет написать симфонию или создать шедевр? Ладно, чёрт с ним! Убрать мусор в доме и отвести ребёнка в школу. Ну и преподать ему физику и основы информатики — чем чёрт не шутит? Как будет выглядеть такой мир?

Робот-я, робот-оно. Поехали.

Во-первых, стоит отделить наши иррациональные страхи от реальности нашего мира. Вероятнее всего, что разумные роботы, созданные людьми, будут столь же моральны или аморальны, как и их создатели.

Сам Айзек Азимов для обхода такой ситуации создал гипотетическую этику «трёх законов робототехники», которые якобы должны были якобы позволить привить роботам человеческую мораль и этику. Однако, на деле, весь его цикл рассказов от самого первого «Хоровода» и вплоть до предсмертного романа «Роботы и Империя», который прокинул мостик от цикла о роботах до цикла об Основании, повествовал как раз о том, как роботы изящно попадали в ловушки трёх законов, пытались их разрешить, бессознательно или сознательно старались обойти — а то и впрямую нарушить.

Всё дело в том, что само по себе определение Первого Закона, который сформулировал Азимов, оказалось весьма шатким и неопределённым: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред».

Для понимания разности формулировок, опуская Второй Закон, приведём тут сразу же формулировку Третьего Закона: «Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам».

Видите, в чём тут большая разность? Я специально не выделял здесь аналогичные слова, но внимательные читатели уже вполне могли понять, в чём разность законов.

Первый Закон сформулирован в категориях абстрактного «вреда», в то время, как Третий закон прямо говорит о конкретной «безопасности» робота. Если же переформулировать ситуацию в виде постулатов теории игр, то Первый Закон задаёт роботу линию поведения в стратегии «минимального возможного проигрыша» для человека, в то время, как Третий Закон говорит лишь об «отсутствии немедленного, реального и окончательного проигрыша» для робота.

Условно говоря, робот в случае «размышлений» за человека должен учитывать все, даже самые далеко идущие последствия его или человека действий, в то время, как в случае «мыслей о себе» он лишь должен отсечь варианты, ведущие к непосредственному проигрышу.

Вам это ничего не напоминает?

«Сынуля, когда ты вырастешь, то я думаю, что тебе лучше поступить в хороший ВУЗ и найти себе достойную подругу в жизни».

«Папа? А что ты будешь делать в воскресенье?»

«Сын, я как-то пока ещё не думал об этом... Это важно?»

По сути дела, робот в случае полного соблюдения Трёх Законов вынуждается к игре в русскую игру «поддавки», которая во французском ёмко называется misère или мизер.

401

Именно этим и занимаются постоянно герои Азимова в цикле рассказов «Я, робот», постоянно ища приключений на свою задницу, попадая в передряги и опасные положения, из которых их и вытаскивают раз за разом умные, думающие и просчитывающие все варианты роботы. Подобно тому, как взрослый человек следит за первыми шагами или самостоятельными действиями ребёнка, будучи всегда наготове либо подхватить его в нечаянном падении, либо строго сказать: «Брось, кака! Брось немедленно! Не в рот, только не в рот!»

Пусть они железные и непривычные — но они именно такие. Думающие за нас, решающие за нас, просчитывающие за нас. Как это возможно? И что — это уже происходит сегодня, но мы это пока ещё не осознали толком?

Да, роботы уже это делают. И пусть это пока ещё не человекоподобные устройства, но форма, как мы помним, это отнюдь не главное. Содержание роботов уже обгоняет человеческое в значительной доле нашей повседневной жизни. Люди всё больше и больше только общаются друг с другом, оставляя громадный пласт земной жизни за роботизированными системами.

Все вы, конечно, знаете вот такой простой момент, повсюду вошедший в нашу жизнь:
402

Для нас такое изображение — полная абракадабра. Наш собственный мозг в ходе долгой эволюции был ориентирован на восприятие совершенно иных образов. Вот таких:

403

Именно распознавание таких, биологических образов, лежало издревле в основе нашего социума. На верхнем фото вы легко отличите женщину от мужчины.
А понять, в какой стране произведен шоколадный батончик, просто посмотрев на штрих-код, слабо?

Да и не в штрих-коде уже передний край робототехники. Распознавание лиц сегодня — уже тоже рутинная и достаточно простая работа. Я думаю, многие читатели уже встречали такой движок в популярной программе Picasa:

404

В профиль вы или в анфас, грустите вы или смеётесь, накрашены вы или без косметики — роли не играет. Программа распознавания лиц «Пикасы» вытянет для вас ваш облик из любого снимка. И не думайте, что «все азиаты на одно лицо». Вы просто не умеете читать их лицевой штрих-код. А для «Пикасы» это так — семечки.

Кроме того, если вы заметили, эта программа обучается вместе с вашими комментариями к фото. Посмотрев пару раз на ваши выборы «Пети Иванова», она быстренько находит вам ещё с десяток «Петь Ивановых» по тем же шаблонам, что засветились на вашем образцовом фото Пети. То есть, по факту, вы просто программируете эвристики, а программа уже дальше использует их самостоятельно.

«Да ладно!» — скажете вы. «Программы тупые! Сколько я раз видел, как продавщица руками вводила штрих-код! И Люську Шевченко Пикаса-то на студенческих фотках так и не распознала!».

Да, ошибки бывают. Они смешные. Но нет ли их и у людей? Полно.
405

Говорят, что если ребёнок увидел на этой картинке тётеньку и дяденьку вместо десятка дельфинчиков — то мальчик уже вырос. Как в анекдоте о том, что «с этого момента писю называем членом и начинаем лечить сифилис».

Наше восприятие себя, как неких уникальностей, которые мыслят, чувствуют, страдают и радуются, и обладают некоей «свободой воли», которая как-то выгодно отличает нас от «тупо расписанной программы», весьма обманчиво.

На самом деле — мы такие же эвристические программы, которые были запрограммированы предыдущими поколениями ещё в раннем детстве. Как вы знаете, дети, попавшие к диким зверям, в итоге очень слабо от них отличаются — их обучающие механизмы внутри их головы были заточены на звериные навыки всё их детство, и, как следствие, во взрослом возрасте их способность к обучению полностью нарушена.

Но — насколько обучаем и насколько обладает свободой воли нормальный, взрослый человек? Классический опыт Бенджамина Либета, проведенный ещё в седом 1979 году, показал нам чудовищную правду о нашей «свободе воли».

Опыт был проведен ещё до нейронаучной революции 1990-х годов, когда научились регистрировать тонкую деятельность мозга с помощью магнитного ядерного резонанса (так называемого ф-МРТ) — тогда Либету пришлось воспользоваться пациентами с вживлёнными в мозг электродами.

Уже в молодости Либет интересовался вопросом о возможности научного измерения процессов в сознании. Во второй половине 1950-х годов он решил экспериментировать с пациентами, которые находились под местным наркозом, в нейро-хирургическом отделении больницы в Сан-Франциско. Пациенты лежали там в операционном зале с частично открытым мозгом. Либет подключал провода к мозгу и раздражал его слабыми электрическими импульсами. При этом он внимательно наблюдал, как и когда реагируют подопытные лица. Результат был ошеломляющий: от раздражения коры мозга до реакции пациента, выражавшейся в подергивании части тела, проходило более половины секунды. Однако тогда это парадоксальное поведение Либет не смог объяснить в полной мере — слишком грубым был опыт.

407

В 1979 году Либет пошёл дальше и соорудил простенький опыт, где испытуемый должен был подвигать правой или левой рукой на выбор и засечь по циферблату определённый момент времени, при этом активность мозга и действия испытуемого регистрировалась синхронизированными приборами. Сам циферблат часов тоже был необычный — он представлял собой бегущую в быстром темпе вокруг диска зеленую точку.  Испытуемым Либет ставил одну и ту же задачу: «Смотрите на зеленую точку на часах. В определенный момент, который вы и только вы сами произвольно выберете, пошевелите кистью и запомните при этом положение зеленой точки».

Затем Либет спрашивал испытуемых, где находилась зеленая точка, когда они приняли решение двинуть той или иной рукой, и записывал это.

Ну а приборы (электроэнцефалограф и датчик движения руки) писали то, когда это произошло на самом деле, исходя из их синхронизации с циферблатом.

И обнаружилось нечто невообразимое, за что исследователь и вписал себя в историю. Получалось, что мозг, судя по его активности, уже «принял решение», а человек лишь спустя короткий промежуток времени его воспроизводил.

Опыт проводили не единожды и результат был всегда един: сначала обнаруживалась работа мозга, потом спустя примерно полсекунды человек якобы «принимал решение». Экспериментаторы даже успешно предугадывали еще не случившееся решение в случае многих испытуемых. Получалось, что то, что мы ощущаем как сознательное волевое решение («мотив, свобода воли») является уже лишь следствием  («окончательным результатом») работы нашего мозга.

Наш мозг своими нижними, совершенно животными отделами, которые с нами ещё со времён крокодилов, принимает решение о действии  примерно за полсекунды до того, как разум осознает этот выбор, как своё прямое волевое решение. Причем каждый раз человек искренне и уверенно считает, что всё, что происходит в опыте, он делает по собственному сознательному желанию. Но в виде этого «свободного волеизъявления» в сознании этот мотив проявляется примерно за 200 миллисекунд до реального действия.

Итого у сознания остается всего 100-150 мс на «право вето» — в последние 50 мс параллельно уже идет прямая активация соответствующих спинномозговых мотонейронов, которые уже и отвечают за действие руки. Этот опыт неоднократно переделывался, критиковался и вновь переделывался, и в общем и целом, со всеми оговорками — да, так и происходит.

408

Другими словами: не «Я» принимало решение, решение приняло наше «Оно» за 300 миллисекунд до того, как эту «красивую картинку» в её окончательном, готовом виде показали нашему «Я».

Поэтому «Я» обычно уже задним числом, получив такую «квитанцию», пытается осознать, что же произошло в крокодильем мозгу за 0,3 секунды до этого и что там уже пытаются делать мотонейроны параллельно с тем, что мы называем «свободой воли».

Именно так мы водим машины, танцуем, бегаем, ходим, взбиваем сливки, машем рукой своим любимым, вытираем сопли детишкам, закрываем замки входных дверей, печатаем текст комментариев в ЖЖ-шечке, чистим зубы или моем голову — и делаем ещё сотни и тысячи повседневных дел.

Этот эксперимент Либета многие ученые не принимали и всячески его критиковали, но спустя годы нечто схожее уже самостоятельно проделывали вновь — и вновь убеждались в изначальной правоте Либета. Вот такой вот, понимаешь, анимированный гиф живёт себе своей жизнью в нашем сознании. И исходя из действий наших глубинных, очень жёстко и чётко запрограммированных отделов и складывается всё наше «сознание». Ну — или 95% оного. Всё-таки 100 миллисекунд у нас иногда есть.

406

Если что — на этом сюжете всё происходит где-то в 30 раз медленнее, чем ваш внутренний крокодил принимает решение за вас.

Причём, что интересно, глубокие отделы сами принимают решения, без участия и без спроса у нашего любимого сознания. Наш разум несет в этом смысле скорее обслуживающую функцию — какие-то решения ветирует, а вот остальные упаковывает в красивую и удобную обертку свободной воли и личного осознанного желания.

Впрочем, всё может оказаться и того хуже. Последние исследования по методикам Либета, но уже касающиеся более комплексных задач, нежели простые взмахи правой или левой руками и отметку точки на циферблате, проведенные уже с использованием самых последних технических приспособлений (в том числе и ф-МРТ), показали вообще невероятное:

«Был довольно долгий спор относительно того, насколько субъективное ощущение «волевого» решения определяется активностью мозга моментами ранее. Мы обнаружили, что результаты решения могут быть закодированы в мозговой активности префронтальной и теменной коры за 10 секунд до его воспринимаемого появления в сознании. Эта задержка, по-видимому, отражает работу сети областей высокоуровневого контроля, которые и начинают готовить предстоящее решение ещё задолго до его осознания».

Поэтому: не смейтесь над роботами. Люди просто очень долго и очень комплексно программируются. Но суть ситуации та же — мы действуем во многом не сознательно, а шаблонно.

Не верите? Попробуйте почистить зубы другой рукой: не той, что вы чистите их каждое утро. Говорят, это очень сильно развивает мозг. Ну — или запишитесь на уроки танца.

Насколько же запрограммировано наше поведение в целом?

Очень сильно. Как это показал эксперимент Милгрэма. Мы очень редко думаем «своим умом». Мы опираемся на авторитеты, мы действуем шаблонно и очень часто не хотим расходовать на наш мозг ценнейшую глюкозу.

Эксперименты были и пострашнее. Настолько пострашнее, что и видео даже не осталось. Но есть фильм — пусть и художественный, но основанный на реальных событиях. Если у вас есть достаточно времени — посмотрите оба фильма.

А потом вспомните три Закона Робототехники. Вы поняли? Они перевёрнутые от эгоистической, обыденной и привычной нам логики нашего сознания. Робот должен минимизировать «вред» другим и обеспечить лишь «безопасность» себе. Люди же обычно хотят минимизировать «вред» себе, часто даже плюя на «безопасность» других.

«Выпустите меня, у меня больное сердце! Этот ток убивает меня!»

409

65% людей доходили в эксперименте Милгрэма до напряжения в 450 Вольт.

Вы всё ещё боитесь роботов? Они уже умнее нас. И, в общем-то, отнюдь не злее нас с вами.

comments

rcoma Вопрос о том, что люди, как и другие существа, живут алгоритмами и что ими в огромной части повиливает крокодилий мозг, многократно раскрыт наукой. некоторые даже используют этот факт и успешно обманывают в интересах сознательного свое бессознательное я.

про электричество не понял.

khathi Про 450 вольт? В эксперименте Милгрэма испытуемые «подвергали» своих субъектов электрическому шоку. В таблице — раздаваемая им памятка о результатах импульса.

crustgroup Не совсем так: 65% - это количество людей, которые «подвергли» своих субъектов ударом тока в 450 Вольт. При том, что рядом с этой кнопкой было чётко написано «Возможна смерть».

Вот так на нас действует Второй Закон. Посрать даже на Первый.

khathi Это на диаграмме. А в таблице — именно результаты удара, которые им объяснялись заранее. А так-то Азимов потом даже Нулевой закон придумал. Ещё более абстрактный и ещё более незамечаемый человечеством.

crustgroup Нулевой - это заплатка на Первый. Потому что "вред" вообще очень трудно формализуем. Например, что делать роботу, если его хозяин жрёт в три горла? Понятно, что он умрёт раньше, но если его лишить пищи и заставлять бегать по утрам - не причинит ли это ему нечеловеческие страдания? Об это, кстати, разбилась не одна система воспитания. Хотя Макаренко тут как-то мне ближе всего, нежели тот современный суррогат образовательной системы, который ищет в тринадцатилетнем лодыре "тонко чувствующую личность".

wedun26 1) Роботы не умеют делать ничего. Вообще. Играть в шахматы, распознавать лица, выбирать маршруты умеют программисты, создавшие алгоритмы... (боже мой, сколько веков этому слову!)

2) Разум -- это не основа личности, а система коммуникации. Человек -- коллективное животное, коммуникация для него -- на первом месте (что, кстати, эксперимент подтверждает).

crustgroup Программисты уже не программируют многие эвристики современных компьютерных программ. Программируется алгоритм обучения на примерах - и всё. Дальше программа накапливает ошибки и успехи, запускает систему ПОС и ООС - вуаля. Чем это отличается от процесса обучения сложению в столбик - для меня большая зогадко.

leto_volodya "Вероятнее всего, что разумные роботы, созданные людьми, будут столь же моральны или аморальны, как и их создатели." Почему это проассоциировалось у меня с "созданы по образу и подобию..." и "...наследуют землю..."?

crustgroup На это и была рассчитана фраза. ;)

dead_doomer Ну, настоящим роботам до Азимовских далеко. Да видимо, и не придут они никогда, спасибо P<>NP и невычислимости. Кстати, в качестве комментария - тут еще вопрос в том, что "рассудочная деятельность" - это очень-очень медленно и энергозатратно. А это значит, что все, что можно - нужно автоматизировать в "бессознательном". Отсюда же "великая иллюзия сознания" или хотя бы просто человеческое зрение, которое, как известно, цветное лишь на 1% площади глаза. Цельная же цветная картинка - это результат бешено быстрой экстраполяции и наличия правильного алгоритма вращения глаза.

crustgroup Ну, настоящим роботам до Азимовских далеко. Да видимо, и не придут они никогда, спасибо P<>NP и невычислимости.

Мы пришли? Пришли. Роботы ничем не хуже. Не везде ещё подобраны ключи к алгоритмам, но вот распознавание речи сейчас пошло семимильными шагами. Сейчас смешно смотреть на роботов 1960-х годов:

А ведь Азимов писал именно на таком убогом материале свои фантазии. И дело даже не в его нарочитой антропоморфности: я даже не знаю, что там внутри... ;)

hippy_old Очень интересно. В японских боевых искусствах есть понятие "вадза-но-ки-окори" это можно перевести как "ментальная инициация техники", считается, что она есть (почти) всегда и, благодаря этому, атаку противника можно предсказать примерно за пол секунды, если уметь эту самую "вадза-но-ки-окори" замечать. Японские дедушки с 50-60-летним стажем тренировок умеют.

crustgroup В сложных опытах 2008 года испытуемым предлагали гораздо более сложную задачку: http://unfspb.wordpress.com/2011/04/13/libet-revisited/ И, как я написал, картинка там собиралась вообще на протяжении 10 секунд до выбора. В реальном подсознании. Конечно, что-то при этом выходит в неосознанные реакции.

Об этом писал и Бор: "Нильс Бор, знаменитый датский физик, смотря вестерны задался вопросом: почему в них существуют «хорошие» и «плохие» герои, черные и белые; и почему «хорошие» успевают выстрелить первыми, хотя вытаскивают пистолет для защиты, а значит, позднее, чем нападающие «плохие». Это не логично. Что сделал Нильс Бор?

Он пригласил в свою лабораторию двух ассистентов и устроил дуэль на водных пистолетах. Одни из ассистентов начал первым: чтобы вытащить пистолет, он сначала совершил ментальную акцию, а потом физическую; а другой – он был решительным! – вытащил пистолет и одновременно с мысленной акцией выстрелил первым!

Нильс Бор понял, почему вестерны правы."

hippy_old Да там очень много интересного, потому как в боевых искусствах постоянно идёт "ментальная гонка вооружений". Если говорить очень упрощённо, то начале новичёк принимает решение об атаке сознательно (планирует) как в эксперименте с водяными пистолетами. Конечно такая атака легко предсказуема более опытным человеком, но по мере роста уровня используются различные психофизические ухищрения, которые позволяют сократить время от распознания "суки" (яп. уязвимость) в противнике до непосредственно атаки до 1/4 секунды (уровень чемпионата мира). И тут как раз уже приходится реагировать на "вадза-но-ки-окори". Более того, опытные люди говорят о следующем витке "гонки вооружений", когда исчезает эта самая "ментальная инициация", но это описывается обычно в терминах дзэн и мне пока не очень понятно самому.

pz_true это прям даосизм какой то. Все идет своим чередом, все твои действия не стоят обдумывания, вон на взмахи бабочек лучше смотри, и думай о прекрасном. Ме думает разум как в том рассказе про Рой. Вещь клевая, но сильно специфичная, нужная очень редко.

crustgroup Так и есть. Разум нужен для 1% действий. Даже в насыщенной жизни. Хотя сейчас этот процент жутко упал:

http://www.expertpost.ru/proishestviya-o-raznom-v-mire/5376-chelovek-s-pistoletom-ne-vyzval-podozreniya-u-passazhirov-elektrichki-v-ssha.html Как видите - доходит уже до странного.

gryzchick Эксперимент все-таки не на реальных событиях - страшилок там авторы добавили от щедрот. Хотя и не исключено, что протекай все дальше в таком духе, все закончилось бы именно так.

lex_divina Да, в последнее время меня часто посещает мысль, что иллюзия наличия у людей свободы воли объясняется элементарным недостатком информации — как об общих принципах и механизмах принятия решений в нервной системе, так и конкретных вводных, которые оказали на это влияние в определенном рассматриваемом случае.

Точно так же адепты религии могут искренне верить в чудеса от незнания техники несложных иллюзионистских трюков, или кошки могут полагать, что их корм самозарождается в шкафу, и роль хозяина сводится лишь к периодическому высыпанию его оттуда.

Я ощущаю себя самостоятельно принимающим решения лишь потому, что не могу даже близко охватить своим сознанием цепочку тех нейрохимических реакций, которые к этому решению привели. Разве что смутно ощутить ее наличие и пропорциональность подводной части айсберга. Мои врожденные параметры, мои приобретенные качества, мой жизненный опыт и мое эмоциальное состояние, будучи точно зафиксированы, формализованы и проанализированы, позволили бы с исключительно высокой точностью предсказывать мои реакции на самые разнообразные раздражители.

Хотя способ уйти от этой предопределенности лежит на поверхности — достаточно вместо самостоятельного принятия решений прибегать к подбрасыванию монетки и тому подобным методам гадания, оставляющим мало простора для сомнений и интерпретации. Но это, конечно, будет не свободой воли, а всего лишь ее подчинением генератору случайных чисел.

"Я" как обладающий самосознанием субъект, не принимаю никаких решений по собственному произволу. Либо эти решения определяются уже упомянутой монеткой и тому подобными способами. Либо они за меня принимаются другими людьми, так или иначе манипулирующими мной. Либо это решение естественно и логично (но не всегда понятно и зримо для меня самого) вытекает из моих врожденных склонностей и моего приобретенного опыта, и тогда считается, что я как бы сам его принял. Но с учетом того, каким образом формируется набор этих врожденных склонностей и жизненных впечатлений, эта свобода воли в пределе тоже может быть сведена к бросанию монетки. Вернее, очень большого числа монеток.  Да и мое "Я" как таковое сформировано тоже не мной.

Андрей Гаврилов kekeke, достаточно хорошо отрефлексировать понятие "свобода воли", чтобы картинка прояснилась в этом месте. Если б можно было n раз провести эксперимент - вернуть человека ровно в те же условия, т.е. по сути - отмотать время, и посмотреть, меняется что-либо, или нет, то что бы мы увидели? Фокус в том, что часто понятие "свобода воли" связывают с не вполне хорошо продуманными фантазиями на тему, что, де, свобода воли - она в каком-то особом, присущем лишь человеку поведении в таких условиях. Поведению, отличному от всего двух, известных науке, процессов - 1) случайных и 2) детерминированных.

А ведь достаточно внимательно и аккуратно рассмотреть один "тик", один переход из предыдущего состояния в последующее, и становится ясно, что нет его, "другого поведения", все, что можно придумать, будет одним их двух вышеперечисленных, по сути. Опачки.

Отсюда - нетути по большому счеты свободы воли в смысле "мы способны изменить предзаданную траекторию". [Предзаданную предыдущим состоянием Вселенной]. kekeke.

"Свобода воли" может вводится, как, к примеру, ситуация превышения некоего порогового значения меры пространства вариантов поведения, для такого-то диапазона параметров. Много вариантов поведения, и зависимость непростая (грубо говоря) - то "свобода воли", если же при большом изменении параметров - лишь малые вариации в реакциях, - тютечки ее. Но системы и в том, и в другом случае - детерминированы [с точностью до случайностей, рождаемых КМ-процессами].

Просто мы, и наша жизнедеятельность, мышление, сознание - процесс, а люди часто как что-то другое пытаются себя помыслить. Да, детерминированный процесс (с точностью до... - см. оговорку выше). Но, в общем, единственный способ его "вычислить" мы и реализуем ежесекундно; может хоть это утешит тех, кому другие представления о "свободе воли" были дороже.

Андрей Гаврилов [начну про себя, любимого:]

Я давно ждал от вас захода в эту сторону, и даже писал про это в коментах неоднократно - роботы и слабый ИИ (его уже будет достаточно; и да, их стоит различать) - это тот game changer, который вы не рассматриваете, а он может радикально поменять расклады, и очень быстро. Тем паче - в точке бифуркации.

Но, к сожалению, самого интересного пока не увидел, собственно - см. выше, понимания/ обсуждения, почему это game changer, и прочих прочищений понятий в этой области. Так что тема все еще открыта ).

(я вообще планировал к предыдущему посту коммент написать на эту тему, даже расстроился чуть-чуть, когда увидел заголовок данного поста - "Опередили!". Ан нет, тема еще нетронута).

Ну а радикальных изменений в области, прорывов, стоит ожидать в ближайшем десятилетии, вангую. Так что тема более чем актуальная.

P.S. ну и да, роботы, разумеется, не те, что есть сейчас; а скорее те, о которых грезили наши предки (отцы/ деды (мамы/ бабушки, чтоб уж всех охватить)). Вообще, формулирование требований к "тем" роботам изрядно прочищает голову/ "просветляет".

P.P.S. рекомендуемый к прочтению короткий текст на тему (за авторством Андрея Плахова): http://plakhov.livejournal.com/157948.html - пост "next big thing". Там хоть прорывов в понимании, к каким изменениям это приведет нет, зато есть понимание, что роботы - это "next big thing", ну и еще пара-другая дельных мыслей. (На самом деле я другой его текст по теме искал, - там были размышления по поводу минимальных требований к таким роботам, но это, кажется, он где-то в комментах писал).

ornitolod Религия тоже говорит - человек наделён правом выбора. Пускай и в пределах полсекунды... Но всё же.

crustgroup Вы не до конца осознали. Ваша префронтальная и теменная кора в опытах 2008 года формирует вам ответ за 10 секунд до того, как вы сами себе говорите "я так думаю, я так считаю". В тот момент, когда ваше "я", ваши лобные доли, делают "выбор" - выбора уже нет. Вам принесли ведомость по зарплате за прошедший месяц.


 

© 2009 Технополис завтра

Перепечатка  материалов приветствуется, при этом гиперссылка на статью или на главную страницу сайта "Технополис завтра" обязательна. Если же Ваши  правила  строже  этих,  пожалуйста,  пользуйтесь при перепечатке Вашими же правилами.