Сегодня смартфон превосходит суперкомпьютеры, которые работали тридцать лет назад. Вычислительные мощности, которые раньше требовали устройство размером с комнату и ценой в десятки миллионов долларов, теперь помещаются в кармане и стоят около тысячи долларов США. Скорость передачи данных выросла в тысячи раз. Современный уровень скорости вычислений и передачи данных позволяет широко применять новый вид компьютерных программ и устройств на базе технологий искусственного интеллекта (ИИ).
Сочетание гениальных человеческих умов и ИИ может дать фантастические возможности – лечение ранее неизлечимых болезней, продление жизни, значительное снижение количества аварий на транспорте и производствах, больший комфорт, экологичность и общественную безопасность.
Однако, как у любой технологии, есть и обратная, темная сторона огромной силы ИИ. Современная реальность все больше похожа на сюжеты Стивена Кинга. Некоторые обыденные вещи кажутся безобидными на первый взгляд, но таят в себе смертельную опасность. Это абсолютно новый вызов, не похожий на чуму или атомную бомбу. Интуиция и разум, сформировавшиеся за миллионы лет для выживания человека в природе, теперь подводят нас. Когда речь идет о компьютере – с виду безобидной коробке с разноцветными лампочками, трудно осознать скрытые в ней угрозы. У машины нет собственных эмоций, эволюционной истории с реакцией типа «бей или беги». Зачем ей завоевывать мир или причинять вред человеку?
Тем не менее ИИ может принести масштабный ущерб – массовую безработицу, усиление разрыва между бедными и богатыми, диктатуру полицейского государства, манипуляции общественным мнением в социальных сетях, гонку вооружений и войны.
В 2017 году на конференции в США были приняты Азиломарские принципы ИИ.1 Данные принципы отражают общие подходы к созданию и использованию систем ИИ. Ведущие мировые разработчики и эксперты по ИИ, включая Илона Маска, Стивена Хокинга и Рэя Курцвейла, а также представители Google, Apple, Facebook, IBM, Microsoft и другие согласились с тем, что инвестиции в ИИ должны сопровождаться исследованиями, позволяющими развивать правовые системы с учетом рисков, связанных с ИИ.