Пробач, Азімов: правила більше не діють. Нова історія з розробниками ШІ (текст у вас на пошті)
Письменник-фантаст Айзек Азімов ще у 1942 році залишив людству три правила, які слід було врахувати під час створення штучного інтелекту. Перше і головне: робот не може завдати шкоди людині. Через 80 років людство відмовилося від цих правил. Тепер штучний інтелект може самостійно ухвалити рішення про вбивство людини.
"Автономне ухвалення рішення, відкривати вогонь чи ні, – дійсно революція. Коли людину забрати з рівняння, вся звична мораль, етика і міжнародне гуманітарне законодавство залишаються за бортом", – розповів LIGA.net Пол Шарр, автор книги "Армія без людей: автономна зброя та майбутнє війни", віцедиректор Center for a New American Security.
"Штучний інтелект здатен обробляти величезний масив даних у реальному часі, керувати одночасно десятками, а то й сотнями машин, здійснювати маневри, які людина-пілот не здатна пережити, – додає Джордж О’Ніл, фахівець з систем штучного інтелекту компанії Northrop Grumman Corporation у розмові з LIGA.net. – З іншого боку, там, де для людини не виникає найменших труднощів, штучний інтелект може виявитися напрочуд сліпим".
Класичний сюжет "Термінатора" про судний день: чи справді розумні бойові машини загрожують людству? Про це новий спецтекст LIGA.net з конструкторами, винахідниками та спеціалістами у сфері штучного інтелекту.
Читайте також: Час сталевого кулака Європи. Нова історія LIGA.net з генералами Євросоюзу