Buvęs JAV pareigūnas: dirbtinis intelektas gali išprovokuoti branduolinį karą

CC0 / United States Department of Energy / Ядерный взрыв, архивное фото
Ядерный взрыв, архивное фото  - Sputnik Lietuva
Prenumeruokite
НовостиTelegram
Jo manymu, dirbtinio intelekto sistemos neturėtų būti naudojamos kontroliuojant branduolinius ginklus

VILNIUS, rugsėjo 2 — Sputnik. Dirbtinio intelekto naudojimas karinėse sistemose (priimant sprendimą dėl branduolinio smūgio) gali kelti didelį pavojų. Apie tai rašo leidinys "Breaking Defense" su nuoroda į buvusį JAV gynybos sekretorių Robertą Vorką (Robert Work).

Солдаты армии США в Литве, архивное фото - Sputnik Lietuva
Ekspertas: Rusija žino apie JAV branduolinių ginklų saugyklas ES

Anot jo, dirbtinio intelekto sistemos neturėtų dalyvauti kontroliuojant branduolinius ginklus, nes jie paleidžiami pagal tam tikrus parametrus ir rodiklius. Kai kuriose situacijose dirbtinis intelektas gali laikyti nepavojingus veiksnius grėsmingais, ir tai yra "nerimą kelianti perspektyva".

Dažniausiai kaip pavyzdys nurodomas rusiška "Perimetro" sistema, kuri gali priimti seismines veiklas kaip branduolinius sprogimus, po ko išsiųs prašymą kariuomenės štabui, o jei negaus atsakymo, gali duoti komandą paleisti tarpžemynines balistines raketas.

Be to, Vorkas pridūrė, kad dirbtinio intelekto naudojimas karo srityse gali sukelti pražūtingas pasekmes ir be tiesioginio dalyvavimo valdant branduolinius ginklus. Visų pirma, jis gali būti naudojamas analizuojant žvalgybos duomenis, taip pat ankstyvo perspėjimo sistemose.

"Įsivaizduokite, tarkim, dirbtinio intelekto sistema Kinijos kariuomenės vadovybės centre, išanalizavusi operatyvinius duomenis, pareiškia, kad JAV ruošiasi suduoti smūgį Kinijai, ir rekomenduoja suduoti prevencinį smūgį", — sakė Vorkas.

Kita vertus, jis pažymi, kad dirbtinis intelektas tikrai gali būti naudingas kariuomenei, tačiau jo naudojimas turėtų būti ribotas ir neturėtų būti taikomas branduoliniams ginklams, nes tai gali sukelti "katastrofišką scenarijų".

Naujienų srautas
0