Прости, Азимов: правил больше нет. Новая история LIGA.net с инженерами-разработчиками
Писатель-фантаст Айзек Азимов еще в 1942 году оставил человечеству три правила, которые следовало учесть при создании искусственного интеллекта. Первое и главное: робот не может причинить вред человеку. Спустя 80 лет человечество отказалось от этих правил. Теперь искусственный интеллект может самостоятельно принять решение об убийстве человека.
"Автономное решение открывать огонь или нет – действительно революция. Если человека убрать из уравнения, вся привычная мораль, этика и международное гуманитарное законодательство остаются за бортом", – рассказал LIGA.net Пол Шарр, автор книги "Армия без людей: автономное оружие и будущее войны", вице-директор Center for a New American Security.
"Искусственный интеллект способен обрабатывать огромный массив данных в реальном времени, управлять одновременно десятками, а то и сотнями машин, совершать маневры, которые человек-пилот не способен пережить, – добавляет Джордж О'Нил, специалист по системам искусственного интеллекта компании Northrop Grumman Corporation в разговоре с LIGA.net. – С другой стороны, там, где для человека не возникает малейших трудностей, искусственный интеллект может оказаться неимоверно слепым".
Классический сюжет "Терминатора" о судном дне: действительно ли умные боевые машины угрожают человечеству? Об этом новый спецтекст LIGA.net с известными конструкторами, изобретателями и специалистами в области искусственного интеллекта.