Искусственный интеллект - угроза или помощник для человечества? Проектирование будущего: Чем опасен искусственный интеллект
Технология делает нашу жизнь проще и качественнее, помогая нашему виду эволюционировать и развиваться. За последние сотню лет технологические программы медицины увеличили продолжительность жизни более чем на 40 процентов. Современный смартфон в кармане стал в тысячу раз мощнее и в миллион раз дешевле, чем самый продвинутый компьютер из 70-тых годов.
Стремительное развитие технологий по суждениям исследователей предрекает нам ещё больший рост продолжительности жизни с помощью умных машин, - они будут опекать нашу жизнь и здоровье. Возьмут в «свои руки» тяжелый и опасный труд, а управляя средствами повышенной опасности умные машины с искусственным интеллектом исключат проблему человеческого фактора. А человек в это время, наконец-то займется творчеством и созиданием бытия в тени философских рассуждений.
Но не случиться ли однажды так, что мы дойдем до той точки, качество перерастет в количество - где технологии вместо увеличения продолжительности жизни, развернуться против нас самих, времени, когда машины взбунтуются?
Перспектива поглощения человечества разумными машинами (по сути это вид, наделенный разумом) - одна из тем при разговоре о потенциальном поглощении человечества искусственным интеллектом. Катастрофическим результатом для нашего вида может быть создание суперкомпьютера с искусственным интеллектом вышедшем из под контроля, - рассуждают весьма серьёзные учёные. Это гипотетическое событие часто упоминается в качестве технологической сингулярности, и это беспокоит учёных.
Взять к примеру машину с искусственным интеллектом, которому поставлена задача изготовления скрепок. Такая машина будет делать скрепки реализовывая самый эффективный способ использования ресурсов, в которых нуждаются люди. Просто они запрограммированы так, выполнять свою работу наиболее качественно - но это же еще и умная машина, понимающая свою важность и необходимость.
Но как отреагирует машина, когда её конечная цель - изготовление скрепок - потеряет необходимость? Перестроиться на новые цели? Или обижено воспримет человеческое желание ее выключить как угрозу своему существованию, и устремиться уничтожить угрозу ее выключения (считай убийства) в лице человеческих существ?Очевидно, это преувеличенный сценарий возможных событий будущего, но это свидетельствует о необходимости значительной проницательности в том, как именно машины с искусственным интеллектом могут мыслить в будущем. Ведь не секрет, что относительно примитивный машинный разум уже сейчас занимает весомую долю в управлении вооружением, и решает значительную часть вопросов нашей жизни. А что может произойти, когда контроль над этим получит развитый интеллект?
Будут ли эти машины уметь разбираться в нюансах человеческих мыслей и желаний? И еще, разумные машины с иным мышлением а то и высшего порядка, могут быть не обременены человеческими эмоциями и прочими когнитивными процессами. Однако, часть того, что делает нас людьми - это наши любопытство и наша неспособность дать ответы на вопросы, которые мы имеем уже сейчас.
Кажется, определенные ограничения могут быть неотъемлемой частью того, что означает быть человеком, и как ученые подозревают, на пути самореализации машинный разум может посчитать себя высшим существом по отношению к человеку.
Искусственный интеллект, потенциальная угроза выживанию человечества. Может ли угрожать суперкалькулятор?
Разумеется, при нынешних технологиях угроза искусственного интеллекта выглядит гипотетической, но уже сейчас отношение учёных к созданию искусственного интеллекта негативное. С недоверием относится к наступлению эры Искусственного Интеллекта и британский физик-теоретик Стивен Хокинг. Ученый полагает, что появление полноценного ИИ в нашем мире может стать для человека разрушительным фактором – обернуться гибелью человеческой расы.
Согласно Хокингу, машинный разум перехватит у человека инициативу развития и будет самосовершенствоваться, и эволюционировать с невероятной скоростью. Тогда как возможности человека к развитию сдерживаются слишком медленной эволюцией. Нам нечего противопоставить машинам на этом пути, мы проиграем эту гонку, - высказывает учёный своё отношение к ИИ.
Учёный беспокоиться, что в будущем технологический прогресс приведет нас к появлению разумных машин, способных превзойти интеллект человека. Но вместе с тем, Стивен Хокинг соглашается, что существующие примитивные формы ИИ доказали свою пользу.
Надо заметить, что большинство учёных, прогрессивно и скорее даже революционно мыслящих в плане получения "дивидендов" от научно-технического развития, очень и очень настороженно относятся к вопросу создания искусственного интеллекта. И вопрос даже не в том, что на каком-то этапе развития машинный интеллект сочтет своего создателя помехой или даже угрозой своего существования. Во что превратиться сам человек? - Вот беспокойство будит какой вопрос. Не разжиреет ли и отупеет человечество под крылом опекунства разумных машин? А ведь это, не что иное, как вырождение вида!
В тоже время, как оппонируют другие учёные, проблема искусственного интеллекта чрезмерно надуманна. В сущности, интеллект на электронной основе не сможет чувствовать и осязать, не сможет фантазировать - это возможности биологического мозга. А без этих компонентов какой бы разумной машина не была, она остаётся машиной - супермощным, продвинутым, но все же калькулятором с прошитыми вариантами развития.
Развитие искусственного интеллекта однажды приведёт к превосходству его над умственными способностями человека. Однако не станет ли это опасным для человечества? Изучить ситуацию можно в результате более точного определения понятия ИИ , взяв за основу для сравнения естественный интеллект. Может ли в одном человеке сочетаться ум и интеллект одновременно? Или же умный человек не может быть интеллектуалом и наоборот?
Такие вопросы возникают в связи с приближением эры ИИ, о возможной опасности которого человечество должно знать заранее и своевременно принять меры для обеспечения своей безопасности. В первую очередь опасность ИИ будет связана с его самостоятельностью и неконтролируемым принятием решений. На данный момент уже выделены средства для изучения этой проблемы. В институте OpenAI изучаются перспективы развития ИИ. На теперешней стадии развития систем ИИ опасность его применения может быть связана со следующим факторами:
- ошибками ПО (программного обеспечения). Любому программному обеспечению может угрожать такая опасность;
- самостоятельной активностью ИИ, вредной для человека. Опасность от ИИ может исходить после изобретения умного компьютера. Поэтому необходимо определиться со степенью ума для компьютера, которая способна быть допустимой, а также чрезмерной, представляющей опасность для человека. Эти свойства должны быть точно измерены из-за сближения умственных способностей человека и компьютера, которые неизбежны. Информационные системы, существующие сегодня, представляют собой человеко-машины, которые могут работать благодаря интеллекту пользователя либо эксперта по компьютерам.
Например, какая опасность будет исходить от интеллектуальной бухгалтерской системы, которой может выдаваться неверная информация? Опасность может возникнуть, когда у такой системы появятся элементы личности, например, собственная заинтересованность, не имеющая ничего общего с человеческой. Решением такой проблемы может быть запрет на создание систем, отличающихся возможностью эволюции.
Кроме того, опасность может быть связана с содержанием в ИИ логических ошибок. Он может использоваться для решения достаточно сложных задач, список которых сразу неизвестен. Поэтому должны быть предусмотрены специальные меры для подтверждения правильности решение, которое будет получено. Скорее всего, возникнет необходимость в разработке всевозможных способов контроля таких систем, например, специальных программных средств, которыми будет автоматически проверяться правильность решения и при этом участие человека не потребуется.
Самосовершенствующийся искусственный интеллект (ИИ) в будущем может поработить или убить людей, если он этого захочет. Об этом рассказал ученый Амнон Иден, который полагает, что риски от разработки свободомыслящего и высокоинтеллектуального сознания очень велики, и, «если не озаботиться вопросами контроля ИИ уже на сегодняшнем этапе развития, то завтра может просто не наступить». Как сообщает английское издание Express, человечество, по мнению Амнона Идена, находится сегодня в «точке невозврата» для претворения в жизнь сюжета знаменитой киноэпопеи «Терминатор».
Стоит отметить, что доктор Амнон Иден является руководителем проекта, главная цель которого - это анализ потенциального разрушительного воздействия ИИ. Без правильного понимания последствий создания искусственного интеллекта его разработка может грозить катастрофой, полагает ученый. В настоящее время наше общество плохо информировано о тех спорах, которые ведутся в научных кругах об анализе потенциального воздействия ИИ. «В наступившем, 2016 году анализ возможных рисков должен будет получить существенно большее распространение в мышлении корпораций и правительств, политиков и тех лиц, которые ответственны за принятие решений», - считает Иден.
Ученый уверен, что научная фантастика, которая описывание уничтожение человечества роботами, вскоре может стать нашей общей проблемой, так как процесс создания ИИ вышел из-под контроля. К примеру, Илон Маск при поддержке предпринимателя Сэма Альтмана решил создать новую некоммерческую организацию стоимостью 1 миллиард долларов, которая занимается разработкой ИИ с открытым исходным кодом, который должен превзойти человеческий разум. При этом сам американский миллиардер Илон Маск причисляет искусственный интеллект к числу «самых больших угроз нашему существованию». Стив Возняк, который был соучредителем компании Apple, в марте прошлого года рассказал, что «будущее выглядит пугающим и очень опасным для людей… в конце концов настанет день, когда компьютеры будут думать быстрее, чем мы, и они избавятся от медленных людей для того, чтобы компании могли работать более эффективно».
Стоит отметить, что угрозу со стороны ИИ видят многие ученые. Десятки известных ученых, инвесторов и предпринимателей, деятельность которых, так или иначе, связана с разработкой искусственного интеллекта, подписали открытое письмо с призывом уделять более пристальное внимание вопросу безопасности и общественной полезности работ в области ИИ. Среди подписавших данный документ астрофизик Стивен Хокинг и основатель компании Tesla и SpaceX Илон Маск. Письмо вместе с сопроводительным документом, который был составлен общественной организацией Future of Life Institute (FLI), было написано в обстановке растущей обеспокоенности по поводу влияния искусственного интеллекта на рынок труда и даже на долгосрочную перспективу выживаемости всего человечества в условиях, когда возможности роботов и машин будут расти практически безудержно.
Ученые понимают тот факт, что потенциал ИИ сегодня очень велик, поэтому необходимо всецело исследовать возможности его оптимального для нас использования, чтобы избежать сопутствующих ловушек, отмечается в письме FLI. Необходимо, чтобы созданные человеком системы ИИ делали ровно то, чего мы от них хотим. Стоит отметить, что Future of Life Institute был основан лишь в прошлом году рядом энтузиастов своего дела, среди которых был создатель Skype Яан Таллинн, для того чтобы «минимизировать риски, стоящие перед человечеством» и стимулировать исследования с «оптимистическим видением будущего». Прежде всего, речь здесь идет о рисках, которые вызваны развитием ИИ и робототехники. В консультационный совет FLI входят Маск и Хокинг наряду со знаменитым актером Морганом Фриманом и другими известными людьми. По мнению Илона Маска, неконтролируемое развитие искусственного интеллекта представляет потенциально большую опасность, чем ядерное .
Известный британский астрофизик Стивен Хокинг в конце 2015 года постарался объяснить свое неприятие технологий ИИ. По его мнению, сверхразумные машины со временем будут смотреть на людей как на расходный материал или муравьев, которые просто мешают решению стоящих перед ними задач. Общаясь с пользователями портала Reddit, Стивен Хокинг отметил, что он не считает, что подобные сверхразумные машины будут «злыми существами», желающими уничтожить все человечество из-за своего интеллектуального превосходства. Скорее всего, речь можно будет вести о том, что они просто не будут замечать человечество.
«СМИ в последнее время постоянно искажают мои слова. Главный риск, который заключается в развитии ИИ, это не злоба машин, а их компетенция. Сверхразумный искусственный интеллект будет отлично справляться с задачами, но если его и наши цели не будут совпадать, у человечества появятся очень серьезные проблемы», - поясняет известный ученый. В качестве примера Хокинг привел гипотетическую ситуацию, в которой сверхмощный ИИ отвечает за функционирование или строительство новой плотины ГЭС. Для подобной машины первостепенным будет то, как много энергии вверенная система будет вырабатывать, а судьба людей не будет иметь никакого значения. «Среди нас найдется мало тех, кто топчет муравейники и наступает на муравьев со злости, но давайте представим ситуацию - вы контролируете мощную ГЭС, которая вырабатывает электроэнергию. Если вам необходимо будет поднять уровень воды и в результате ваших действий один муравейник будет затоплен, то проблемы утопающих насекомых вряд ли будут вас беспокоить. Давайте не будем ставить людей на место муравьев», - отметил ученый.
Второй потенциальной проблемой дальнейшего развития искусственного интеллекта, по мнению Хокинга, может стать «тирания хозяев машин» - стремительный рост разрыва в уровне доходов между богатыми людьми, которым удастся монополизировать выпуск разумных машин, и остальным населением планеты. Стивен Хокинг предлагает решать эти возможные проблемы следующим путем - замедлить процесс разработки ИИ и переключиться на разработку не «универсального», а узкоспециализированного искусственного разума, который сможет решать лишь крайне ограниченный круг задач.
Помимо Хокинга и Маска, свои подписи под письмом поставили нобелевский лауреат и профессор физики MIT Фрэнк Вильчек, исполнительный директор Института исследований машинного интеллекта (MIRI) Люк Мюльхаузер, а также многие специалисты из крупных IT-компаний: Google, Microsoft и IBM, а также предприниматели, основавшие компании Vicarious м DeepMind, специализирующиеся на разработке систем ИИ. Составители письма отмечают, что они не ставят своей целью напугать общественность, но планируют подчеркнуть как положительные, так и отрицательные стороны, которые связаны с созданием искусственного интеллекта. «В настоящее время все сходятся во мнении, что исследования в области ИИ уверенно прогрессируют, а влияние ИИ на современное человеческое общество будет только усиливаться, - сообщается в письме - открывающиеся перед человеком возможности огромны, все, что может предложить современная цивилизация, было создано интеллектом человека. Мы не в состоянии предсказать, чего нам удастся достичь, если интеллект человека можно будет помножить на средства ИИ, однако проблема избавления от бедности и болезней уже не представляется бесконечно трудной».
В современный быт уже включены многочисленные разработки в области искусственного интеллекта, включая системы распознавания изображений и речи, беспилотные транспортные средства и многое другое. Согласно оценкам наблюдателей из Кремниевой долины, в данной области сегодня реализуется более 150 стартапов. При этом разработки в этой области привлекают все больше инвестиционных вложении и все больше компаний наподобие Google развивают свои проекты на базе ИИ. Поэтому авторы письма полагают, что настало самое время, для того чтобы уделить повышенное внимание всем возможным последствиям наблюдаемого бума для экономических, социальных и юридических сторон человеческой жизни.
Позицию о том, что искусственный интеллект может представлять опасность для человека, разделяет и Ник Бостром профессор Оксфордского университета, который известен своими работами об антропном принципе. Данный специалист считает, что ИИ подошел к той точке, за которой последует его несовместимость с человеком. Ник Бостром подчеркивает, что в отличие от генной инженерии и изменений климата, для контроля которых правительства выделяют достаточные суммы, «ничего не делается, для того чтобы контролировать эволюцию ИИ». По мнению профессора, в отношении искусственного интеллекта в настоящее время ведется «политика правового вакуума, который нужно заполнить». Даже такие технологии, как беспилотные автомобили, которые представляются безобидными и полезными, вызывают ряд вопросов. К примеру, должен ли подобный автомобиль совершать экстренное торможение, для того чтобы спасти своих пассажиров и кто будет отвечать в случае ДТП, совершенного беспилотным автомобилем?
Рассуждая над потенциальными рисками, Ник Бостром отметил, что «компьютер не в состоянии определить пользу и вред для человека» и «не имеет даже малейшего представления о человеческой морали». Помимо этого, циклы самосовершенствования в компьютерах могут происходить с такой скоростью, за которой человек просто не сможет уследить, и с этим также почти ничего нельзя сделать, говорит ученый. «На том этапе развития, когда компьютеры смогут думать сами за себя, никто не сможет точно предсказать, приведет ли это к хаосу или существенно улучшит наш мир, - заявил Ник Бостром, в качестве примера приведя простое возможное решение компьютера - отключить в странах с холодным климатом отопление для оздоровления людей и повышения их выносливости, которое «может прийти в голову искусственному интеллекту».
Помимо этого, Бостром поднимает и проблему чипирования человеческого мозга с целью повышения нашего биоинтеллекта. «Во многих отношениях такая процедура может быть полезной, если все процессы будут контролируемыми, но что произойдет, если вживленный чип сможет перепрограммировать сам себя? К каким последствиям это может привести - к возникновению сверхчеловека или к появлению компьютера, который будет лишь выглядеть человеком?» - задается вопросами профессор. Способы, при помощи которых компьютеры решают человеческие проблемы, очень сильно отличаются от наших. К примеру, в шахматах человеческий мозг рассматривает лишь узкий набор ходов, выбирая из них самый лучший вариант. В свою очередь компьютер рассматривает все возможные ходы, выбирая лучший из всех. При этом компьютер не рассчитывает огорчить или удивить своего противника по игре. В отличие от человека, играя в шахматы, компьютер может сделать хитрый и тонкий ход лишь случайно. Искусственный интеллект может посчитать наилучшим способом - устранить ошибку из любой системы за счет удаления оттуда «человеческого фактора», но, в отличие от человека, робот не готов совершать подвиги, которые спасли бы людям жизнь.
Помимо всего прочего, рост количества умных машин представляет собой этап новой промышленной революции. В свою очередь, это означает, что уже в ближайшем будущем человечество столкнется с неизбежными социальными изменениями. Работа со временем станет уделом высококвалифицированных специалистов, так как практически все простые задания смогут взять на себя роботы и другие механизмы. Ученые считают, что за искусственным интеллектом «нужен глаз да глаз», чтобы наша планета не превратилась в мультипликационную планету «Железяка», которая была населена роботами.
В плане все большей автоматизации процессов производства будущее уже наступило. Всемирный экономический форум (ВЭФ) представил свой отчет, согласно которому автоматизация приведет к тому, что еще до 2020 года более 5 миллионов человек, трудящихся в самых разных областях, потеряют свое место работы. Таково влияние роботов и роботизированных систем на нашу жизнь. Для составления отчета сотрудники ВЭФ использовали данные о 13,5 млн. работников из различных стран мира. Согласно их данным, к 2020 году суммарно пропадет потребность в более чем 7 миллионах рабочих мест, тогда как ожидаемый рост занятости в других отраслях составит всего чуть более 2 миллионов рабочих мест.
Источники информации:
http://www.ridus.ru/news/209869
http://www.vedomosti.ru/technology/articles/2015/01/13/ugrozy-iskusstvennogo-razuma
https://nplus1.ru/news/2016/01/19/they-took-our-jobs
http://ru.sputnik.kg/world/20151013/1019227239.html
Правообладатель иллюстрации Thinkstock Image caption Симбиоз человека и машины - один из путей развития человечества
Умные машины научились блефовать, обыгрывать профессионалов в шахматы или Го, переводить и распознавать человеческий голос. Каждую неделю мы узнаем о все новых подвигах компьютерных программ, уже умеющих ставить медицинские диагнозы, рисовать не хуже Рембрандта, петь или генерировать текст. Стоит ли человеку опасаться искусственного интеллекта?
По-настоящему "горячей" тема искусственного интеллекта (ИИ/AI) стала в последние несколько лет. Ученые связывают это с бурным развитием нейронных сетей (одно из направлений исследований в области искусственного интеллекта), которое, в свою очередь, стало возможным с появлением мощных компьютеров.
"С начала 2010-х годов под влиянием впечатляющих успехов, полученных в результате применения многослойных нейронных сетей (в первую очередь сверточных и рекуррентных), эта область привлекла серьезное внимание как со стороны ученых и инженеров, так и со стороны инвесторов", - комментирует автор одной из российских шахматных программ, специалист по методам машинного обучения Сергей Марков.
Ученое сообщество может спорить о сроках появления умных машин, но сходится в одном: развитие технологий окажет безусловное влияние на общество, экономику и отношения между людьми в будущем. Уже сейчас раздаются призывы обдумать этические принципы разработки искусственного интеллекта, удостоверившись в том, что искусственный интеллект развивается в безопасном для людей направлении.
Этот м атериал подготовлен в качестве ответа на вопрос ы , присланны е нашими читателями о научных достижениях . Задать свои вопросы по другим темам вы можете по этим ссылкам ( , ).
Экономический эффект и влияние на рынок труда
Научная фантастика и Голливуд сформировали представление об "искусственном интеллекте" как о следующей форме жизни на планете, которая поработит человечество в Матрице или организует ему ядерный Судный день. Выживших добьет Терминатор.
Правообладатель иллюстрации Getty Images Image caption Умрет ли человечество от Skynet?В действительности, несмотря на последние достижения в области искусственного интеллекта, до появления разумных машиносуществ еще далеко, признают ученые и специалисты. И те, и другие, впрочем, советуют на некоторые аспекты обратить внимание уже сейчас.
По оценкам исследовательской организации McKinsey Global Institute, в ближайшие десять лет новые технологии радикально изменят рынок труда на планете, что позволит сэкономить порядка 50 трлн долларов.
Изменения коснутся сотен миллионов рабочих мест. Люди все больше и больше будут перекладывать часть своих служебных заданий и многие рутинные задачи на машину, что позволит им сосредоточиться на творческой работе.
"С некоторой точки зрения у человечества в целом есть важная и интересная задача - развиваться каждому конкретному индивидууму гораздо быстрее, чем человечество развивает системы искусственного интеллекта", - считает эксперт, директор по распространению технологий "Яндекса" Григорий Бакунов.
Но вместе с автоматизацией неминуемо пострадают менее квалифицированные кадры, и уже сейчас необходимо задуматься, как их защитить, переучить и подготовить к новой жизни.
Пострадать, как показывает практика, могут не только синие воротнички, но и работники умственного труда. Несколько дней назад Goldman Sachs заменил команду из 600 трейдеров на двух человек и автоматизированные программы алгоритмического трейдинга, для обслуживания которых были наняты 200 разработчиков-программистов.
Правообладатель иллюстрации Thinkstock Image caption Многие задачи вскоре станут по силам роботизированным системам, которые последовательно начнут заменять людейИскусственный интеллект сам по себе не тождественен автоматизации процессов, но развитие ИИ приведет к тому, что все больше задач будет по силам компьютерной программе.
Среди вариантов решения проблемы вытеснения человека машиной на рынке труда, как указывает Аллисон Дютман, координатор программ Foresight Institute - некоммерческой организации, базирующейся в Силиконовой долине для продвижения новых технологий, - введение понятия "универсальный базовый доход", который бы получал каждый житель вне зависимости от уровня дохода и занятости. Подобный доход финансировался бы за счет так называемого инновационного налога Land Value Tax, введение которого сейчас активно обсуждается в Силиконовой долине.
Личность ли искусственный интеллект?
Является ли роботизированная система личностью? Может ли умный компьютер голосовать? Какого он пола? Отношения человека и умной машины уже сейчас обсуждают депутаты Европарламента, задаваясь вопросом, следует ли наделять будущих роботом статусом "электронной личности".
Как указывает Дютман, люди нехотя делятся правами с теми, кто им непонятен, а значит будут сопротивляться "очеловечиванию" ИИ.
Правообладатель иллюстрации AFP Image caption Человека и машину разделяет главное - способность думать"Принимая во внимание, как долго человечество шло к тому, чтобы наделить равными правами всех людей, вне зависимости от цвета их кожи, расы или гендера, можно уже сейчас предположить, что и машины они не сходу не признают равными.
Вместе с этическими появляются и юридические тонкости: кто возьмет на себя ответственность в случае аварии беспилотного автомобиля или поломки умного медицинского устройства - и нравственные вопросы: стоит ли развивать беспилотное оружие, способное действовать без ведома человека?
Третья этическая головоломка обсуждается чаще других и волнует человечество гораздо больше: что теоретически может сделать с человечеством суперинтеллект, настоящая умная машина?
Научить ИИ этике
Специалисты в области развития ИИ признают: пусть не в ближайшие 20-30 лет, но человечество все же доживет до появления настоящего искусственного интеллекта, который будет умнее своего создателя.
"Последний бастион будет взят тогда, когда будет создан так называемый "сильный ИИ" (Strong AI, Artificial General Intelligence), то есть такой ИИ, который будет способен решать неопределенно широкий спектр интеллектуальных задач", - говорит Сергей Марков.
А главное, такой ИИ сможет самостоятельно думать.
Исследованием угроз, которые таит ИИ, а также этическими проблемами, связанными с новыми технологиями, занимаются многие институты, в числе которых организация Future of Life Institute (Институт будущего жизни), Foresight Institute, Future of Humanity Institute, OpenAI и другие.
Решение Аллисон Дютман из Foresight Institute - дать компьютеру прочитать всю научную литературу, научные статьи, поднимающие вопрос об этике, и сделать эту информацию основой для его будущих решений.
Что такое Нейронные сети и какое у них будущее?
Большинство экспертов связывают прогресс в развитии ИИ с развитием нейронных сетей.
Нейронные сети - это одно из направлений исследований в области искусственного интеллекта, основанное на моделировании биологических процессов, которые происходят в человеческом мозгу.
Именно им мы обязаны появлению впечатляющих результатов в распознавании речи и изображений, постановке медицинских диагнозов, переводе текста и создании изображений, генерации речи и музыкальной композиции.
Правообладатель иллюстрации iStock Image caption Именно с развитием нейронных систем связывают ученые развитие искусственного интеллектаНа сегодня, как признают специалисты, нейронные сети признаны одним из лучших алгоритмов машинного обучения, а решения на их основе показывают на данный момент самые выдающиеся результаты.
И это несмотря на то, что современные нейронные сети устроены в полторы тысячи раз проще, чем головной мозг крысы.
"Пока что создаваемые нами нейронные сети относительно невелики по сравнению, скажем, с нейронной сетью человеческого мозга и, кроме того, они представляют собой весьма упрощенный аналог естественных нейронных сетей. Поэтому пока что при помощи нейронных сетей мы решаем в основном сугубо прикладные задачи", - рассказывает Сергей Марков.
Сейчас создаются специализированные процессоры для обучения таких сетей (так называемые нейроморфические процессоры), которые позволят увеличить скорость вычислений на несколько порядков.
Разработчики не просто заняты сейчас увеличением количества нейронов в сети, но и изменением конструкции сетей. "Сложные системы конфигурации сетей - то, с чем сейчас производится наибольшее число экспериментов", - рассказывает Григорий Бакунов.
Правообладатель иллюстрации iStock Image caption "Умных" помощников человека в ближайшее время станет больше - микросенсоры в стене, сенсор размером с пуговицу, оповещающий человека в случае опасностиА тот факт, что такие системы стали сравнительно доступными большому числу рядовых разработчиков, привел к появлению стартапов, экспериментирующих с нейронными сетями, например Prisma (приложение позволяет обрабатывать фотографии, превращая их в стилизации картин известных художников) и Mubert (онлайн-композитор электронной музыки).
Что нас ждет в ближайшее время
Как прогнозирует профессор Университетского колледжа Лондона и Principal Scientist Nokia Bell Labs Ник Лейн, человека будут окружать еще больше "умных вещей". Они станут компактнее и эффективнее.
Профессор приводит такой пример: если раньше встроенный в стену сенсор мог лишь осознавать, что кто-то прошел мимо, то в будущем он будет не только знать, кто конкретно прошел, но и как ведет себя человек, не нуждается ли в чем, не представляет ли он угрозу для себя или окружающих.
Сенсор размером с пуговицу сможет оповещать человека в случае опасности.
С профессором согласен и Григорий Бакунов из "Яндекса": "В ближайшее время нас ждет бум развития узких искусственных интеллектов, которые помогают решать какую-то одну довольно простую задачу, но которую они будут решать даже лучше, чем человек".
Правообладатель иллюстрации iStock Image caption Все больше появляется этических вопросов, связанных с развитием ИИ"Наиболее вероятным путем развития нашей цивилизации является путь синтеза человека и машины: палка, одежда, автомобиль, мобильный телефон, кардиостимулятор или кохлеарный имплантат - по мере развития наши инструменты все более и более напоминают продолжение наших тел. Уже завтра машины смогут получать от человека мысленные команды, воспринимать мысленно формируемые визуальные образы, передавать информацию непосредственно в мозг - такие проекты уже сейчас существуют за стенами наиболее продвинутых технологических лабораторий", - подытоживает Сергей Марков.
Журналисты пока еще нужны?
Газета Financial Times в прошлом году провела довольно рискованный эксперимент, одновременно поставив задачу написать текст своему профильному корреспонденту и умной программе по имени Эмма. Обе статьи затем должен был прочитать редактор Financial Times и угадать, за какой из двух заметок стоит журналист, а за какой компьютер.
Перед этим своеобразным "краш-тестом" корреспондент Financial Times признавалась: "Я думаю, программа точно справится с задачей быстрее меня. Но, надеюсь, я все-таки сделаю это лучше".
Так и случилось: Эмма действительно оказалась быстрее - программа сгенерировала текст на основе статистики об уровне безработицы в Британии за 12 минут. Журналистке потребовалось 35 минут. И, как она сама впоследствии признавалась, Эмма превзошла ее ожидания. Программа не только умело обращалась с фактами, но и поставила новость в контекст, предположив, как возможный "брексит" (дело было в мае 2016 года, до референдума о выходе Британии из ЕС) может изменить ситуацию.
Правообладатель иллюстрации Thinkstock Image caption Заменят ли людей роботизированные системы? Лет 50 у человечества в запасе есть, успокаивают специалистыНо кое-что Эмма сделала все же хуже журналистки. "Статья Эммы была написана немного более корявым языком. Но главное, в ней было очень много цифр, - признавался редактор FT. - А, пожалуй, главное, что мы тут пытаемся делать, так это выбирать только действительно важные цифры".
Эмма - продукт стартапа Stealth. В компании говорят, что у Эммы есть команда живых помощников, но утверждают, что все, что она пишет или делает, - продукт исключительно ее "мозгов".
И все-таки - надо ли бояться ИИ?
Многие, если не все специалисты, задействованные на сегодняшний день в разработке систем искусственного интеллекта, охотно признают, что ИИ не скоро сделает людей ненужными. Именно потому, что искусственный интеллект еще не настолько умен. Главное, чего ему на сегодняшний день не хватает, - автономной возможности думать.
"Сейчас бояться ИИ ни в каком виде не стоит. Можно подождать лет 30-40, пока действительно какие-то радикальные изменения произойдут", - считает Бакунов.
Но кое-что уже происходит: понемногу стирается грань между работой или задачей, выполненной человеком, и задачей, выполненной машиной. Как объясняют специалисты, уже сейчас порой бывает сложно понять, кто сидит внутри системы - человек или машина.
"Нет критериев, когда мы сможем понять, что внутри машины зародилось сознание", - задается вопросом Бакунов.
Человек станет скрепкой?
Известный адепт алармистской точки зрения, в рамках которой ужасы, описанные в Терминаторе, могут стать реальностью, - философ Ник Бостром - придерживается мнения, что достигший интеллектуального уровня человека ИИ способен будет уничтожить человечество.
Правообладатель иллюстрации Getty Images Image caption Станет ли описанное в фильме нашей повседневной реальностью?Бостром объясняет на примере скрепок: вы ставите перед искусственным интеллектом задачу делать скрепки, как можно больше и лучше. ИИ в какой-то момент понимает, что человек представляет угрозу, потому что может выключить компьютер, что будет противоречить задаче делать как можно больше скрепок. В случае, если человек не представляет угрозу, ИИ решает, что человеческие тела состоят из атомов, которые можно использовать для производства отличных скрепок. Итог - компьютер изведет человечество на скрепки.
Такой сценарий многим кажется преувеличением. По мнению Сергея Маркова, например, "высокая эффективность выполнения нелепой цели несовместима с нелепостью этой цели - грубо говоря, ИИ, способный переделать весь мир в скрепки, будет неизбежно достаточно умен для того, чтобы отказаться от такой цели".
Искусственный интеллект как золотая рыбка
Британский специалист в области искусственного интеллекта, профессор когнитивной науки в Университете Сассекса Маргарет Боден относится к утверждениям о скором пришествии умных машин скептически.
Правообладатель иллюстрации Getty Images Image caption В мае 1997 года компьютер Deep Blue II впервые выиграл матч у Гарри КаспароваПрофессор приводит пример "золотой рыбки", когда в обмен на свободу рыбак загадывает три желания. Одно из желаний - вернуть сына с войны, второе - 50 тысяч долларов и третье - возможность наутро загадать еще одно желание.
В тот же вечер в дом рыбака постучали. Сына вернули с войны - в гробу. Рыбак получил страховку в 50 тысяч долларов.
"Замените в этой притче рыбку на ИИ, и все станет ясно - объясняет Боден. - Ах, да, на следующий день рыбак воспользовался третьим желанием и - отменил предыдущие два".
Возможен ли перенос сознания в машину?
Сергей Марков:
"Если говорить о возможности полного переноса сознания, то современными предшественниками такой технологии будущего являются проекты, подобные Blue Brain, направленные на создание действующих электронных аналогов мозга, а также проекты, направленные на создание интерфейсов мозг-машина (BCI) - аппараты для протезирования потерянного зрения, слуха, замены утраченных конечностей, даже частей мозга.
Правообладатель иллюстрации Science Photo Library Image caption Цель специалистов в области ИИ - создать "сильный искусственный интеллект", который был бы способен решать широкий спектр задачОчень интересным и перспективным направлением является оптогенетика (в принципе для сопряжения мозга и машины можно менять не только машины, но и саму нервную ткань, создавая в ней искусственные фоторецепторы).
Когда будет решен широкий спектр инженерных задач в рамках таких частных проектов, я думаю, что задача переноса сознания станет вполне разрешимой. Уже сейчас мечтатели предлагают гипотетические схемы для осуществления подобного проекта.
Например, Ян Корчмарюк, предложивший в свое время название "сеттлеретика" для направления исследований, связанных с переносом сознания, считает, что наиболее перспективной схемой является использование специализированных нанороботов, внедряемых в нейроны человеческого мозга. Впрочем, для успешного воплощения подобной схемы необходимо решить целый ряд сложных инженерных проблем".
Отсутствием контроля.
Если мы можем контролировать эту технологию - проблемы нет, но в данный момент мы пока не способны это обеспечить, мы не знаем, куда она будет двигаться. Это основная проблема.
Сам по себе ИИ прекрасен, но одна из главных его задач - учить компьютер обучаться самому. Когда вы учите компьютер самостоятельному обучению, вы позволяете ему развиваться, а сейчас он в состоянии совершить миллиарды исчислений за секунды, в то время как мы способны решить всего лишь одну задачу за несколько часов. Понимаете? Это значит, что ответ практически мгновенный, и для нас это безумие.
С того момента, как ИИ появился, перед нами открылось многое, и оно может быть хорошим или плохим, совсем как ребенок. Все зависит от влияния среды, традиций, но мы не можем их создать, не можем их контролировать. Поэтому есть возможность потери контроля.
Нужен ли нам ИИ? Я не думаю, что это хороший вопрос. В таком случае, нужен ли нам телевизор? Хороший вопрос: что мы сделаем с этой технологией. В начале 1990-х было большое движение людей, борющихся против технологий в целом, но если обратить внимание на детали, они боролись не против технологий, а против потери своей социальной роли, работы и так далее. То есть, как и с любой технологией, мы должны в первую очередь думать о том, куда мы движемся, и как технология влияет на общество. Если она подходит нам, она могла бы решить множество вопросов, помочь спасать людей, жизни. Мы теряем миллионы жизней в год из-за автомобилей, 400000 только в США. Неблагоразумные водители очень опасны, и передача управления машиной ИИ могла бы спасти сотни тысяч жизней. Это уже говорит о том, что эта технология нам нужна.
Потерю контроля тоже нужно рассматривать в перспективе. Какие есть опасности? Куда мы движемся? Что мы имеем сейчас? Мы не можем потерять контроль над ИИ по щелчку пальцев. Это происходит постепенно, и если произойдет, то да, мы потеряем контроль. Но у нас есть множество технологий, которые помогут нам остановить этот процесс. Опять же, это вопрос проведения черты между хорошим и плохим. Сегодня мы можем делать с технологиями практически все, что угодно. Мы прямо как Амадей. Но, если спросить меня, мы не можем делать все, что угодно, по соображениям этики. Есть четкая граница, которая очевидна для нас, но если мы идем по этому пути, мы должны четко осознавать, что все страны способны провести эту черту между тем, что хорошо, и что плохо. Это значит, что эта технология должна носить глобальный характер, и мы - то общество, несущее за нее ответственность. Это главная проблема, и нам необходимо сосредоточиться на том, какое влияние она окажет. Интересно, что в некоторых северных странах, например, Швеции, Норвегии и так далее, есть Министерство Будущего. Цель этого министерства - предсказывать, как то, что мы делаем сейчас, повлияет на население, на социум, на окружающую среду, и как мы можем это контролировать.
Что касается нас, футуристов, для каждой технологии и каждого рынка у нас особые предсказания. Мы не аналитики, мы ничего не ожидаем, но достаточно хорошо представляем, что могло бы произойти в ближайшие пять лет, знаем об основным сферах влияния технологий, хотя это все гипотезы. Но это не главное, главное - что мы делаем с этим. Я не могу сказать точно, что произойдет через пятнадцать лет, но я вижу основные тренды и могу сказать, какой тренд какое влияние окажет на людей, на бизнес и так далее. Мы должны двигаться в этом направлении.
Для бизнеса мы все рассчитываем на 10 лет вперед, потому что необходимо понимать, где мы будем спустя это время.