Прости, Азимов: правил больше нет. Новая история с создателями ИИ (текст у вас на почте)
Писатель-фантаст Айзек Азимов еще в 1942 году оставил человечеству три правила, которые следовало учесть при создании искусственного интеллекта. Первое и главное: робот не может причинить вред человеку. Спустя 80 лет человечество отказалось от этих правил. Теперь искусственный интеллект может самостоятельно принять решение об убийстве человека.
"Автономное принятие решения, открывать огонь или нет, – действительно революция. Если человека убрать из уравнения, вся привычная мораль, этика и международное гуманитарное законодательство остаются за бортом", – рассказал LIGA.net Пол Шарр, автор книги "Армия без людей: автономное оружие и будущее войны", вице-директор Center for a New American Security.
"Искусственный интеллект способен обрабатывать огромный массив данных в реальном времени, управлять одновременно десятками, а то и сотнями машин, совершать маневры, которые человек-пилот не способен пережить, – добавляет Джордж О'Нил, специалист по системам искусственного интеллекта компании Northrop Grumman Corporation в разговоре с LIGA.net. – С другой стороны, там, где для человека не возникает малейших трудностей, искусственный интеллект может оказаться неимоверно слепым".
Классический сюжет "Терминатора" о судном дне: действительно ли умные боевые машины угрожают человечеству? Об этом новый спецтекст LIGA.net с конструкторами, изобретателями и специалистами в области искусственного интеллекта.
Читайте также: Время стального кулака Европы. Новая история LIGA.net с генералами ЕС