Пробач, Азімов: правила більше не діють. Нова історія з розробниками ШІ (текст у вас на пошті)
LIGA.net разом з розробниками автономних бойових систем та експертами з'ясувала, чи готовий світ до епохи війни машин проти людей

Письменник-фантаст Айзек Азімов ще у 1942 році залишив людству три правила, які слід було врахувати під час створення штучного інтелекту. Перше і головне: робот не може завдати шкоди людині. Через 80 років людство відмовилося від цих правил. Тепер штучний інтелект може самостійно ухвалити рішення про вбивство людини.
Це анонс матеріалу. Повний текст розіслано передплатникам LIGA.net у суботу, 5 лютого. Хочете теж отримати цю історію? Оформіть підписку "Партнер". Крім доступу до спецтекстів, ми також щотижня в неділю надсилатимемо вам переказ 10 найкращих текстів з усієї планети від найкращих медіа, вимкнемо показ реклами і відкриємо доступ до чату з редакцією.
"Автономне ухвалення рішення, відкривати вогонь чи ні, – дійсно революція. Коли людину забрати з рівняння, вся звична мораль, етика і міжнародне гуманітарне законодавство залишаються за бортом", – розповів LIGA.net Пол Шарр, автор книги "Армія без людей: автономна зброя та майбутнє війни", віцедиректор Center for a New American Security.

Розблокуйте щоб читати далі
Щоб прочитати цей матеріал потрібно оформити підписку