Искусственный интеллект как экономическое понятие

В начале 1980-х годов в США для описания скромных результатов и еще более скромного финансирования в области ИИ возник специальный термин — «зима искусственного интеллекта»(AI winter). Работавшие тогда над созданием ИИ американские компании из-за финансовых проблем стали приходить в упадок или возвращаться к своим корням — экспериментальной и консалтинговой деятельности. Атрибутом сферы ИИ оказалось сжатие рынка вместе с повторяющимся циклом «бум-крах», который был обусловлен раздуванием перспектив научных достижений, и неизбежно последовавшим разочарованием в результатах. Поколение истинно верующих, зачарованных технократической и оптимистической литературой 1960-х годов по ИИ, определенно, сыграло роль в подготовке «бум-краха». Этот цикл растянулся на десятилетия, хотя индустрия ИИ не прекратила развития. И сегодня «бум-крах» вполне может повториться, если верить тем, кто возвещает новую волну технологий на грани думающих машин.

Однако в действительности первая зима искусственного интеллекта наступила в Европе за 10 лет до изобретения термина «AI winter». В 1973 году британский математик сэр Майкл Джеймс Лайтхилл провел исследование, показавшее, что отрасль не реализует предсказания, включая обещание создать функционирующий ИИ через 10 лет. Отчет Лайтхилла «Искусственный интеллект: обзорный анализ» не оказал серьезного влияния на США, но привел к сокращению финансирования разработок в Англии и уходу британских ученых из отрасли. «Би-би-си» даже организовала телевизионные дебаты о будущем ИИ, где объектам критики Лайтхилла дали возможность высказаться. На это мероприятие из США приехал и автор термина «искусственный интеллект» информатик Джон Маккарти, но ничего убедительного в защиту своей отрасли сказать не смог.

Неужели что-то изменилось с тех пор?

Прорыв в области ИИ частично связывают с лавинообразным ростом информации о современном мире — именно она выступает основой обучения ИИ. Огромные базы данных, самоотслеживание, cookie-файлы, присутствие в Интернете, возможность хранения терабайтов информации, десятилетия ответов на поисковые запросы, «Википедия» -вся цифровая виртуальная реальность стала для ИИ средством обучения.

Сам по себе код глубинного обучения недостаточен для генерации сложного процесса логического мышления, однако он является базовым компонентом всех действующих ИИ, в т. ч. суперкомпьютера Watson от IBM, искусственного разума DeepMind, поисковой системы Google и алгоритма работы, используемого Facebook. Этот «идеальный шторм» из дешевой параллельной вычислительной обработки информации, больших данных и усовершенствованных алгоритмов глубинного обучения наконец обеспечил ИИ успех, к которому он шел почти 60 лет. Такая конвергенция позволяет утверждать, что при сохранении действующих технологических трендов развитие ИИ будет продолжаться.

Современные достижения в области ИИ, или новая весна искусственного интеллекта, связаны, в частности, с тем, что он прекрасно встраивается в экономику «длинного хвоста» (термин К. Андерсона).

Заканчивается эра, когда одно и то же подходило всем, наступает новая эра — рынков разнообразия. Разделение общего на миллиарды разных культурных фрагментов бесконечно расстраивает классические масс-медиа и индустрию развлечений. После того как они провели десятки лет, отрабатывая навыки создания, выбора и продвижения хитов, оказалось, что этого недостаточно. Массовый рынок превращается в массу ниш. Эта масса ниш существовала всегда, но сейчас падает стоимость доступа к ним. Потребители находят нишевые продукты, а нишевые продукты находят потребителей и превращаются в экономическую и культурную силу, с которой в дальнейшем придется считаться. Новый рынок — рынок ниш — не заменяет традиционного рынка хитов, а просто впервые появляется на той же сцене.

Рост предложения сам по себе не ведет к изменению спроса. Потребителям нужно дать возможность найти те ниши, которые наиболее соответствуют их интересам и предпочтениям. Здесь эффективны многие инструменты -от рекомендаций до рейтингов. Именно эти фильтры могут сместить спрос к «хвосту». Иными словами, «длинный хвост» начинается с миллионов ниш, но обретает смысл только тогда, когда они населяются людьми.

Как только значительно увеличивается разнообразие в предложении и образуются фильтры, чтобы в этом разнообразии разобраться, кривая спроса разглаживается: хиты теряют популярность, зато возрастает популярность ниш. И хотя ни один из нишевых товаров не продается в больших количествах, число нишевых продуктов настолько велико, что совокупно они могут составить рынок, соперничающий с рынком хитов.

В современном цифровом мире тематика искусственного интеллекта и сфера разработки интеллектуальных технологий являются крайне актуальными и важными. За полувековую историю искусственный интеллект успел перерасти из теоретической концепции в интеллектуальную систему, способную самостоятельно принимать решения. В числе ключевых преимуществ внедрения искусственного интеллекта в первую очередь отмечается возможность освобождения человечества от рутинной работы и переход к творческой деятельности, на которую машины не способны. По данным международных консалтинговых агентств, инвестиции компаний в цифровую трансформацию к 2021 г. в глобальном масштабе достигнут 58 трлн дол., а в 2030 г. глобальный ВВП вырастет на 14 %, или на 15,7 трлн дол. США, в связи с активным использованием искусственного интеллекта. Однако его стремительное развитие поставило перед государством и обществом необходимость противостоять новым угрозам, связанным со способностью искусственного интеллекта к саморазвитию, в частности необходимость нормативной регуляции его деятельности и противодействия угрозам, возникающим при его функционировании.

В настоящее время началось формирование криминологических основ применения искусственного интеллекта, вызванных появлением новых интеллектуальных технологий, что требует принятия действий и решений по предупреждению возможных негативных проявлений его использования и государственному реагированию на них. В статье на основе анализа истории возникновения и развития искусственного интеллекта изложены его ключевые характеристики, несущие в себе криминологические риски, определены виды криминологических рисков применения искусственного интеллекта, предложена авторская классификация указанных рисков. В частности, выделены прямой и косвенный криминологические риски применения искусственного интеллекта. На основе детального анализа авторами выявлена объективная необходимость создания в стране компетентных органов по выработке государственной политики в сфере нормативного правового регулирования искусственного интеллекта, контроля и надзора за его использованием.

Мир находится на пороге новой цифровой эры. Цифровая экономика становится все более важной частью глобальной экономики, открывая новые возможности для бизнеса и устойчивого развития всего мирового сообщества.

Цифровизация сегодня касается не только технологического сектора и цифровых компаний, но и производственных цепочек в самых разных секторах глобальной экономики. По данным International Data Corporation, занимающейся изучением мирового рынка информационных технологий и телекоммуникаций, в 2017 г. расходы компаний на цифровую трансформацию в глобальном масштабе составили 958 млрд дол. По прогнозам аналитиков, в 2018 г. мировые затраты на технологии и сервисы, обеспечивающие цифровые преобразования бизнес-практик, продуктов и организаций, превысят 1,1 трлн дол., а к 2021 г. инвестиции достигнут 58 трлн дол.

Большая часть указанных инвестиций приходится на производственный сектор экономики, преимущественно на внедрение в автоматизированные системы управления технологическими процессами искусственного интеллекта (ИИ). Согласно результатам исследования авторитетной международной компании PwC, специализирующейся в области консалтинга и аудита, в 2030 г. глобальный ВВП вырастет на 14 %, или на 15,7 трлн дол. США, в связи с активным использованием ИИ. Также, по данным компании PwC, 72 % крупнейших корпораций мира считают ИИ фундаментом будущего.

ИИ окружает нас повсюду. Мы живем в эпоху больших данных, когда ежедневно обрабатывается огромный объем информации, слишком громоздкой для обработки человеком. Среднестатистический житель планеты использует ИИ намного чаще, чем думает: только 33 % респондентов считают, что они применяют технологию с поддержкой ИИ, в то время как 77 % фактически используют услугу или устройство с ИИ.

Стоит отметить, что несомненные плюсы внедрения ИИ, предполагающего освобождение человечества от рутинной работы и переход к творческой деятельности, на которую машины не способны, видят не только крупные корпорации, но и обычные жители: 61 % из опрошенных 6 тыс. чел. заявили, что, по их мнению, ИИ сделает мир лучше.

В недалёком будущем благодаря блокчейн-технологии станет возможным оцифровка умственной деятельности человека. Комбинация блокчейн + персональный коннектом организма (коннектом — это полная карта нейронных связей организма) позволит кодировать все мысли человека и получать доступ к ним в стандартизированном сжатом формате. «Захват» данных обеспечат сканирование коры головного мозга и электроэнцефалография, интерфейсы «мозг-компьютер», когнитивные нанороботы и др.

Мышление можно будет представить как цепочки блоков, записав в них почти весь опыт человека и даже, вероятно, его сознание. А после записи в блокчейне воспоминания можно будет администрировать и передавать, например для восстановления памяти (в случае болезней, сопровождающихся амнезией). Для этого понадобятся персональные распределенные журналы записей и майндфайлы, которые в качестве осознаваемых предложений или подсознательных внушений можно отправить в облако для агрегирования и получения практических рекомендаций по оптимизации умственной деятельности. Причем блокчейн-технология делает эту процедуру конфиденциальной, безопасной и выгодной.

К слову, уже сейчас, как подчеркивает Дж. Глик, люди переносят в облако свои информационные жизни. Более того, именно в облаке совершает сделки экономика мира. Что касается восстановления индивидуальной памяти, то выполнение данной функции человек доверяет социальным сетям. К примеру, в Twitter широко известна история американца Томаса Диксона. После того как его сбил автомобиль, у него начались проблемы с памятью. Ввиду черепно-мозговой травмы память Томаса не хранит недавние воспоминания, сохраняя при этом более длительные: он помнит, чем занимался, допустим, в рождественские праздники 5 лет назад, но не помнит, что делал вчера. Решение данной проблемы Томас облегчил, «заведя для личного пользования закрытый твиттер-аккаунт, в котором фиксирует малейшие детали происходящего в течение дня».

В научной литературе проблема злонамеренного использования искусственного интеллекта (далее — ЗИИИ) по дестабилизации международной информационно-психологической безопасности (МИПБ) до сих пор системно не рассматривалась, отсутствует сам понятийный аппарат такого подхода. Угрозы ЗИИИ дифференцируют по сферам человеческой жизнедеятельности. Например, угрозы цифровой безопасности, физической безопасности, политической безопасности и т.д. Не оспаривая правомерность такого подхода, полагаем возможным и необходимым выделение ЗИИИ против личной, групповой, национальной и международной информационно-психологической безопасности в качестве неотложной самостоятельной задачи исследования ЗИИИ.

Уровни ЗИИИ и актуальность проблемы в латиноамериканском регионе. Исходя из определения МИПБ как защищенности системы международных отношений от негативных информационно-психологических воздействий, связанных с разнообразными факторами международного развития1, угрозы МИПБ как на национальном, так и на международном уровне, исходящие от ЗИИИ, целесообразно рассматривать на трех уровнях2. На первом уровне искусственно созданная гипертрофированная негативная реакция на развитие ИИ, распространение его ложного негативного образа может замедлить его внедрение и вызвать социально-политическую напряженность. Этим могут воспользоваться в своих интересах реакционные политические силы, даже террористические организации. Второй уровень угроз МИПБ связан непосредственно с практикой ЗИИИ, в которой атака на общественное сознание не является основной целью. Использование агрессивными акторами беспилотных летательных аппаратов, уязвимость инфраструктуры перед кибератаками, манипулирование криптовалютами — к сожалению, все это неотъемлемая часть широкого освоения ИИ.

Наконец, широкомасштабное использование средств и методов информационно-психологического противоборства может существенно повысить уровень восприятия угроз, спонтанность и эмоциональность реакций аудитории, особенно во время затяжных кризисов (похожих на сегодняшний, связанный с коронавирусной пандемией). Использование ИИ в информационно-психологическом противоборстве уже делает скрытые кампании управления восприятием более опасными. Примером может быть использование «умных» (оснащенных ИИ) ботов в информационных кампаниях, в том числе и для подрыва репутации оппонента. ЗИИИ, направленное в первую очередь на нанесение ущерба в информационно-психологической сфере, можно выделить как третий и высший уровень угроз МИПБ.

В настоящей работе выделены лишь некоторые из возможностей ЗИИИ, которые могут представлять большую опасность для МИПБ в Латинской Америке. Эксперты из разных стран предупреждают о новых рисках по мере быстрого развития технологий. Список таких рисков будет увеличиваться, но мы надеемся, что возрастет и способность общества противостоять им.

Развивающиеся и развитые страны мира достигли определенных успехов в применении ИИ, хотя и находятся в целом на начальном этапе развития отрасли. Вместе с тем высокий уровень присутствия американцев и латиноамериканцев в Интернете, острый экономический кризис, другие тяжелые последствия коронавирусной пандемии, социальная нестабильность, активная политическая борьба, высокий уровень коррупции и преступности, столкновение геополитических интересов в регионе делают угрозу ЗИИИ здесь все более актуальной. Не только ИИ, но и все новые технологии требуют качественных изменений в обществе и на уровне государственных и общественных институтов, и на уровне отдельного человека: в его ментальных способностях, уровне этических норм и социальной ответственности. Использование новых возможностей и минимизация новых рисков обеспечат поступательное развитие общества.

 

Источники:

  1. Базаркина Д.Ю., Пашенцев Е.Н. Злонамеренное использование искусственного интеллекта: вызовы информационно-психологической безопасности в Латинской Америке. См. КиберЛенинка
  2. Бегишев И.Р., Хисамова З.И. Криминологические риски применения искусственного интеллекта. См. КиберЛенинка
  3. Опенков М.Ю., Варакин В.С. Искусственный интеллект как экономическая категория. См. КиберЛенинка

Оставьте первый комментарий

Оставить комментарий

Ваш электронный адрес не будет опубликован.


*