В начале 1980-х годов в США для описания скромных результатов и еще более скромного финансирования в области ИИ возник специальный термин — «зима искусственного интеллекта»(AI winter). Работавшие тогда над созданием ИИ американские компании из-за финансовых проблем стали приходить в упадок или возвращаться к своим корням — экспериментальной и консалтинговой деятельности. Атрибутом сферы ИИ оказалось сжатие рынка вместе с повторяющимся циклом «бум-крах», который был обусловлен раздуванием перспектив научных достижений, и неизбежно последовавшим разочарованием в результатах. Поколение истинно верующих, зачарованных технократической и оптимистической литературой 1960-х годов по ИИ, определенно, сыграло роль в подготовке «бум-краха». Этот цикл растянулся на десятилетия, хотя индустрия ИИ не прекратила развития. И сегодня «бум-крах» вполне может повториться, если верить тем, кто возвещает новую волну технологий на грани думающих машин.
Однако в действительности первая зима искусственного интеллекта наступила в Европе за 10 лет до изобретения термина «AI winter». В 1973 году британский математик сэр Майкл Джеймс Лайтхилл провел исследование, показавшее, что отрасль не реализует предсказания, включая обещание создать функционирующий ИИ через 10 лет. Отчет Лайтхилла «Искусственный интеллект: обзорный анализ» не оказал серьезного влияния на США, но привел к сокращению финансирования разработок в Англии и уходу британских ученых из отрасли. «Би-би-си» даже организовала телевизионные дебаты о будущем ИИ, где объектам критики Лайтхилла дали возможность высказаться. На это мероприятие из США приехал и автор термина «искусственный интеллект» информатик Джон Маккарти, но ничего убедительного в защиту своей отрасли сказать не смог.
Неужели что-то изменилось с тех пор?
Прорыв в области ИИ частично связывают с лавинообразным ростом информации о современном мире — именно она выступает основой обучения ИИ. Огромные базы данных, самоотслеживание, cookie-файлы, присутствие в Интернете, возможность хранения терабайтов информации, десятилетия ответов на поисковые запросы, «Википедия» -вся цифровая виртуальная реальность стала для ИИ средством обучения.
Сам по себе код глубинного обучения недостаточен для генерации сложного процесса логического мышления, однако он является базовым компонентом всех действующих ИИ, в т. ч. суперкомпьютера Watson от IBM, искусственного разума DeepMind, поисковой системы Google и алгоритма работы, используемого Facebook. Этот «идеальный шторм» из дешевой параллельной вычислительной обработки информации, больших данных и усовершенствованных алгоритмов глубинного обучения наконец обеспечил ИИ успех, к которому он шел почти 60 лет. Такая конвергенция позволяет утверждать, что при сохранении действующих технологических трендов развитие ИИ будет продолжаться.
Современные достижения в области ИИ, или новая весна искусственного интеллекта, связаны, в частности, с тем, что он прекрасно встраивается в экономику «длинного хвоста» (термин К. Андерсона).
Заканчивается эра, когда одно и то же подходило всем, наступает новая эра — рынков разнообразия. Разделение общего на миллиарды разных культурных фрагментов бесконечно расстраивает классические масс-медиа и индустрию развлечений. После того как они провели десятки лет, отрабатывая навыки создания, выбора и продвижения хитов, оказалось, что этого недостаточно. Массовый рынок превращается в массу ниш. Эта масса ниш существовала всегда, но сейчас падает стоимость доступа к ним. Потребители находят нишевые продукты, а нишевые продукты находят потребителей и превращаются в экономическую и культурную силу, с которой в дальнейшем придется считаться. Новый рынок — рынок ниш — не заменяет традиционного рынка хитов, а просто впервые появляется на той же сцене.
Рост предложения сам по себе не ведет к изменению спроса. Потребителям нужно дать возможность найти те ниши, которые наиболее соответствуют их интересам и предпочтениям. Здесь эффективны многие инструменты -от рекомендаций до рейтингов. Именно эти фильтры могут сместить спрос к «хвосту». Иными словами, «длинный хвост» начинается с миллионов ниш, но обретает смысл только тогда, когда они населяются людьми.
Как только значительно увеличивается разнообразие в предложении и образуются фильтры, чтобы в этом разнообразии разобраться, кривая спроса разглаживается: хиты теряют популярность, зато возрастает популярность ниш. И хотя ни один из нишевых товаров не продается в больших количествах, число нишевых продуктов настолько велико, что совокупно они могут составить рынок, соперничающий с рынком хитов.
В современном цифровом мире тематика искусственного интеллекта и сфера разработки интеллектуальных технологий являются крайне актуальными и важными. За полувековую историю искусственный интеллект успел перерасти из теоретической концепции в интеллектуальную систему, способную самостоятельно принимать решения. В числе ключевых преимуществ внедрения искусственного интеллекта в первую очередь отмечается возможность освобождения человечества от рутинной работы и переход к творческой деятельности, на которую машины не способны. По данным международных консалтинговых агентств, инвестиции компаний в цифровую трансформацию к 2021 г. в глобальном масштабе достигнут 58 трлн дол., а в 2030 г. глобальный ВВП вырастет на 14 %, или на 15,7 трлн дол. США, в связи с активным использованием искусственного интеллекта. Однако его стремительное развитие поставило перед государством и обществом необходимость противостоять новым угрозам, связанным со способностью искусственного интеллекта к саморазвитию, в частности необходимость нормативной регуляции его деятельности и противодействия угрозам, возникающим при его функционировании.
В настоящее время началось формирование криминологических основ применения искусственного интеллекта, вызванных появлением новых интеллектуальных технологий, что требует принятия действий и решений по предупреждению возможных негативных проявлений его использования и государственному реагированию на них. В статье на основе анализа истории возникновения и развития искусственного интеллекта изложены его ключевые характеристики, несущие в себе криминологические риски, определены виды криминологических рисков применения искусственного интеллекта, предложена авторская классификация указанных рисков. В частности, выделены прямой и косвенный криминологические риски применения искусственного интеллекта. На основе детального анализа авторами выявлена объективная необходимость создания в стране компетентных органов по выработке государственной политики в сфере нормативного правового регулирования искусственного интеллекта, контроля и надзора за его использованием.
Мир находится на пороге новой цифровой эры. Цифровая экономика становится все более важной частью глобальной экономики, открывая новые возможности для бизнеса и устойчивого развития всего мирового сообщества.
Цифровизация сегодня касается не только технологического сектора и цифровых компаний, но и производственных цепочек в самых разных секторах глобальной экономики. По данным International Data Corporation, занимающейся изучением мирового рынка информационных технологий и телекоммуникаций, в 2017 г. расходы компаний на цифровую трансформацию в глобальном масштабе составили 958 млрд дол. По прогнозам аналитиков, в 2018 г. мировые затраты на технологии и сервисы, обеспечивающие цифровые преобразования бизнес-практик, продуктов и организаций, превысят 1,1 трлн дол., а к 2021 г. инвестиции достигнут 58 трлн дол.
Большая часть указанных инвестиций приходится на производственный сектор экономики, преимущественно на внедрение в автоматизированные системы управления технологическими процессами искусственного интеллекта (ИИ). Согласно результатам исследования авторитетной международной компании PwC, специализирующейся в области консалтинга и аудита, в 2030 г. глобальный ВВП вырастет на 14 %, или на 15,7 трлн дол. США, в связи с активным использованием ИИ. Также, по данным компании PwC, 72 % крупнейших корпораций мира считают ИИ фундаментом будущего.
ИИ окружает нас повсюду. Мы живем в эпоху больших данных, когда ежедневно обрабатывается огромный объем информации, слишком громоздкой для обработки человеком. Среднестатистический житель планеты использует ИИ намного чаще, чем думает: только 33 % респондентов считают, что они применяют технологию с поддержкой ИИ, в то время как 77 % фактически используют услугу или устройство с ИИ.
Стоит отметить, что несомненные плюсы внедрения ИИ, предполагающего освобождение человечества от рутинной работы и переход к творческой деятельности, на которую машины не способны, видят не только крупные корпорации, но и обычные жители: 61 % из опрошенных 6 тыс. чел. заявили, что, по их мнению, ИИ сделает мир лучше.
В недалёком будущем благодаря блокчейн-технологии станет возможным оцифровка умственной деятельности человека. Комбинация блокчейн + персональный коннектом организма (коннектом — это полная карта нейронных связей организма) позволит кодировать все мысли человека и получать доступ к ним в стандартизированном сжатом формате. «Захват» данных обеспечат сканирование коры головного мозга и электроэнцефалография, интерфейсы «мозг-компьютер», когнитивные нанороботы и др.
Мышление можно будет представить как цепочки блоков, записав в них почти весь опыт человека и даже, вероятно, его сознание. А после записи в блокчейне воспоминания можно будет администрировать и передавать, например для восстановления памяти (в случае болезней, сопровождающихся амнезией). Для этого понадобятся персональные распределенные журналы записей и майндфайлы, которые в качестве осознаваемых предложений или подсознательных внушений можно отправить в облако для агрегирования и получения практических рекомендаций по оптимизации умственной деятельности. Причем блокчейн-технология делает эту процедуру конфиденциальной, безопасной и выгодной.
К слову, уже сейчас, как подчеркивает Дж. Глик, люди переносят в облако свои информационные жизни. Более того, именно в облаке совершает сделки экономика мира. Что касается восстановления индивидуальной памяти, то выполнение данной функции человек доверяет социальным сетям. К примеру, в Twitter широко известна история американца Томаса Диксона. После того как его сбил автомобиль, у него начались проблемы с памятью. Ввиду черепно-мозговой травмы память Томаса не хранит недавние воспоминания, сохраняя при этом более длительные: он помнит, чем занимался, допустим, в рождественские праздники 5 лет назад, но не помнит, что делал вчера. Решение данной проблемы Томас облегчил, «заведя для личного пользования закрытый твиттер-аккаунт, в котором фиксирует малейшие детали происходящего в течение дня».
В научной литературе проблема злонамеренного использования искусственного интеллекта (далее — ЗИИИ) по дестабилизации международной информационно-психологической безопасности (МИПБ) до сих пор системно не рассматривалась, отсутствует сам понятийный аппарат такого подхода. Угрозы ЗИИИ дифференцируют по сферам человеческой жизнедеятельности. Например, угрозы цифровой безопасности, физической безопасности, политической безопасности и т.д. Не оспаривая правомерность такого подхода, полагаем возможным и необходимым выделение ЗИИИ против личной, групповой, национальной и международной информационно-психологической безопасности в качестве неотложной самостоятельной задачи исследования ЗИИИ.
Уровни ЗИИИ и актуальность проблемы в латиноамериканском регионе. Исходя из определения МИПБ как защищенности системы международных отношений от негативных информационно-психологических воздействий, связанных с разнообразными факторами международного развития1, угрозы МИПБ как на национальном, так и на международном уровне, исходящие от ЗИИИ, целесообразно рассматривать на трех уровнях2. На первом уровне искусственно созданная гипертрофированная негативная реакция на развитие ИИ, распространение его ложного негативного образа может замедлить его внедрение и вызвать социально-политическую напряженность. Этим могут воспользоваться в своих интересах реакционные политические силы, даже террористические организации. Второй уровень угроз МИПБ связан непосредственно с практикой ЗИИИ, в которой атака на общественное сознание не является основной целью. Использование агрессивными акторами беспилотных летательных аппаратов, уязвимость инфраструктуры перед кибератаками, манипулирование криптовалютами — к сожалению, все это неотъемлемая часть широкого освоения ИИ.
Наконец, широкомасштабное использование средств и методов информационно-психологического противоборства может существенно повысить уровень восприятия угроз, спонтанность и эмоциональность реакций аудитории, особенно во время затяжных кризисов (похожих на сегодняшний, связанный с коронавирусной пандемией). Использование ИИ в информационно-психологическом противоборстве уже делает скрытые кампании управления восприятием более опасными. Примером может быть использование «умных» (оснащенных ИИ) ботов в информационных кампаниях, в том числе и для подрыва репутации оппонента. ЗИИИ, направленное в первую очередь на нанесение ущерба в информационно-психологической сфере, можно выделить как третий и высший уровень угроз МИПБ.
В настоящей работе выделены лишь некоторые из возможностей ЗИИИ, которые могут представлять большую опасность для МИПБ в Латинской Америке. Эксперты из разных стран предупреждают о новых рисках по мере быстрого развития технологий. Список таких рисков будет увеличиваться, но мы надеемся, что возрастет и способность общества противостоять им.
Развивающиеся и развитые страны мира достигли определенных успехов в применении ИИ, хотя и находятся в целом на начальном этапе развития отрасли. Вместе с тем высокий уровень присутствия американцев и латиноамериканцев в Интернете, острый экономический кризис, другие тяжелые последствия коронавирусной пандемии, социальная нестабильность, активная политическая борьба, высокий уровень коррупции и преступности, столкновение геополитических интересов в регионе делают угрозу ЗИИИ здесь все более актуальной. Не только ИИ, но и все новые технологии требуют качественных изменений в обществе и на уровне государственных и общественных институтов, и на уровне отдельного человека: в его ментальных способностях, уровне этических норм и социальной ответственности. Использование новых возможностей и минимизация новых рисков обеспечат поступательное развитие общества.
Источники:
- Базаркина Д.Ю., Пашенцев Е.Н. Злонамеренное использование искусственного интеллекта: вызовы информационно-психологической безопасности в Латинской Америке. См. КиберЛенинка
- Бегишев И.Р., Хисамова З.И. Криминологические риски применения искусственного интеллекта. См. КиберЛенинка
- Опенков М.Ю., Варакин В.С. Искусственный интеллект как экономическая категория. См. КиберЛенинка
Оставить комментарий