Што кога вештачката интелигенција ќе почне самата да убива луѓе?

Кинески воени експерти и политичари се загрижени дека забрзаната интеграција на вештачката интелигенција во оружјето и воената опрема би можела ненамерно да доведе до војни меѓу народите.

Кинезите вложуваат значителни ресурси во истражувањето и развојот на технологијата, а тоа најмногу се однесува на развојот на вештачката интелигенција, полето на кое Кина и САД доминираат.

Една од примените на вештачката интелигенција е во воените намени. Со понатамошен развој и пораст на автономните воени возила и дронови, како и промената на начинот на комуникација, постои сериозна опасност дека некое недоразбирање или делување на автономните возила би можело да започне сериозен конфликт или војна.

Посебно се истакнуваат дроновите, односно беспилотните летала, кои се почесто се користат во воените дејства.

Разликата меѓу САД и Кина е во тоа што Кинезите развиле поголема автономија. Додека американските дронови имаат можност за основен автопилот, кинеските дронови речиси сами да можат да одлучуваат за нападите на цели.

Како проблем се поставува тоа што уште не е познато како “ќе се интерпретираат одредени однесувања” кои подразбираат употреба на автономна опрема.

Со оглед на тоа дека станува збор за беспилотно летало, војските се подготвени да ризикуваат и да ги пратат на подрачје на кое никогаш не би пратиле војници – бидејќи нема ризик од човечки жртви.

Меѓутоа, ако автономното летало заврши на место на кое не би смеело да се најде, прашање е како тоа ќе го прифати другата страна. Бидејќи станува збор за дрон во кој нема човечки екипаж, можеби ќе се одлучат за соборување на таквите летала.

Прашањето е што ќе се случи ако автономните летала препознаат опасност, па почнат да пукаат и убијат некого?

Тоа нема да биде одлука што ја донеле војници или нивните команданти, туку вештачка интелигенција. Таков напад би можел да предизвика брз воен одговор и општа војна.

За таквите работи во иднина да се избегнат, потребно е веќе сега да се дефинираат правилата за вооружени судири на автономни системи.

Јасно е дека ризикот од споменатите сценарија и почеток на случајна војна ќе биде се поголем, па една таква акција започната од страна на вештачката интелигенција, можеби, би можела да предизвика лавина и судир кој ќе влијае на стотина милиони луѓе.

Leave a comment

error: Content is protected !!