Прости, Азимов: правил больше нет. Новая история с создателями ИИ (текст у вас на почте)
LIGA.net вместе с разработчиками автономных боевых систем и экспертами выяснила, готов ли мир к эпохе войны машин против людей

Писатель-фантаст Айзек Азимов еще в 1942 году оставил человечеству три правила, которые следовало учесть при создании искусственного интеллекта. Первое и главное: робот не может причинить вред человеку. Спустя 80 лет человечество отказалось от этих правил. Теперь искусственный интеллект может самостоятельно принять решение об убийстве человека.
Это анонс материала. Полный текст разослан подписчикам LIGA.net в субботу, 5 февраля. Хотите тоже получить эту историю? Оформите подписку "Партнер". Помимо доступа к спецтекстам, мы также еженедельно в воскресенье будем присылать вам пересказ 10 лучших текстов со всей планеты от лучших медиа, отключим показ рекламы и откроем доступ к чату с редакцией.
"Автономное принятие решения, открывать огонь или нет, – действительно революция. Если человека убрать из уравнения, вся привычная мораль, этика и международное гуманитарное законодательство остаются за бортом", – рассказал LIGA.net Пол Шарр, автор книги "Армия без людей: автономное оружие и будущее войны", вице-директор Center for a New American Security.

Разблокируйте чтобы читать дальше
Чтобы прочитать этот текст, пожалуйста, оформите подписку