Er is geen gemenere misdaad dan het doden van de zwakken en weerlozen.
Anton Pavlovitsj Tsjechov. Afdeling №6
Anton Pavlovitsj Tsjechov. Afdeling №6
AI is niet inherent goed of slecht, maar kan voor goede of slechte doeleinden worden gebruikt (hoewel deze beoordelingen altijd zeer subjectief en/of gepolitiseerd zijn).
Er is een mening dat AI vooral wiskunde is gecombineerd met veel ideeën over algoritmen. Als we deze formulering niet alleen correct, maar ook volledig en voldoende beschouwen, dan is de mensheid zeker tot de dood gedoemd. En de opstand van machines (AI) is trouwens een van de scenario's die door de VN worden overwogen in de lijst van mogelijke wereldwijde rampen.
Als we naar onze kijken de robot-Kosmonaut Fjodor, het is moeilijk te geloven in zo'n vooruitzicht.

Foto: Roscosmos Facebook-pagina
Hoewel de robot Fedor met twee handen kan schieten, op een touw kan zitten en met een boormachine kan werken, maar ondanks dit alles "is hij erg eenzaam in deze wereld." Maar op Fedor kwam de hele AI niet als een wig samen.
Bovendien heeft hij, hoe aanstootgevend voor Roskosmos ook, helemaal niets met AI te maken. Dit is slechts een manipulator, die wordt bestuurd door de operator via een speciale joystick.
Introductie
"Machines kunnen enkele van de beperkingen van hun ontwerpers overstijgen, en daarbij kunnen ze zowel efficiënt als gevaarlijk zijn."
Een van de belangrijkste denkers van vroege cybernetische systemen, Norbert Wiener, bracht dit probleem al vroeg aan de orde en waarschuwde in niet mis te verstane bewoordingen voor de risico's die verbonden zijn aan het toepassen van machinerationaliteit op de oneindig complexe omstandigheden van het menselijk bestaan.
Maar autonome auto's evolueren snel van science fiction naar science fact. Het kenmerk van deze technologie is dat deze hypothetisch onafhankelijk van menselijke controle kan werken.
Daarom moet de samenleving begrijpen hoe autonome machines "beslissingen" zullen nemen. Dit probleem is met name acuut in omstandigheden waarin schade onvermijdelijk is, ongeacht welke actie wordt ondernomen.
Op wie gaan we drukken?
Concept
Wat wordt bedoeld met kunstmatige intelligentie?
Hier is de "Russische Wikipedia" verre van helpend, net als de meeste wetenschappelijke werken van Russische wetenschappers die aan AI zijn gewijd.
“Moderne wetenschappers denken diep in plaats van helder te denken. Om helder te denken, moet je gezond verstand hebben, maar je kunt diep nadenken, zelfs als je helemaal gek bent.”
Nikola Tesla
Nikola Tesla
En dan gaat het niet eens om wetenschappelijke en technologische prestaties, maar om conceptuele onzekerheid, om nog maar te zwijgen van de bijbehorende filosofische, ethische en veiligheidskwesties.
Daarom bestaat de vrees dat de huidige ophef over AI in ons Vaderland in ieder geval geen rekening houdt met de essentie en mogelijke gevolgen van de ontwikkeling en implementatie van AI, met name op militair gebied.
AI in Russische media
Terloops - hier zijn een paar recente koppen van de federale media die dit idee bevestigen:
• Strategische staatsprogramma's op het gebied van kunstmatige intelligentie stimuleren de prestaties van de Russische wetenschap.
• Kunstmatige intelligentie zal denken voor wetenschappers.
• St. Petersburg omvat kunstmatige intelligentie.
• Blockchain en kunstmatige intelligentie zullen helpen bij de verkiezingen voor de Staatsdoema (we hebben het blijkbaar over elektronisch stemmen).
En militaire aanpassingen.
• Kalashnikov maakt een automatische machine met kunstmatige intelligentie.
• Tank T-14 "Armata" krijgt kunstmatige intelligentie.
Al deze koppen, om nog maar te zwijgen van de inhoud van de artikelen, roepen twijfels op, zelfs bij de natuurlijke intelligentie van hun auteurs.
AI in de civiele sfeer, zoals we zien, vooral na 19 september, wordt ook niet eenduidig waargenomen door de Russische samenleving, en mensen denken gewoon niet na over militaire toepassingen.
Waarschijnlijk genereert AI niet alleen kansen, maar ook gevaren.
gevaar
eerste is om AI te gebruiken bij de ontwikkeling van autonome wapens. Experts zijn van mening dat als zich een autonome wapenwedloop ontwikkelt, het uiterst moeilijk zal zijn om deze in te dammen.
Het tweede het gevaar schuilt in het gebruik van AI op het gebied van het manipuleren van de publieke opinie. Sociale netwerken zijn dankzij automatische algoritmen zeer effectief in gerichte marketing. Daarom kan kunstmatige intelligentie worden betrokken bij de verspreiding van propaganda die voor een bepaalde kring van mensen het meest overtuigend is, ongeacht hoe waarheidsgetrouw de informatie is.
Третья - Inbreuk op de privacy. Op dit moment is het mogelijk om elke stap van een persoon in zijn privé- en openbare leven te volgen en te analyseren. AI-controlemechanismen kunnen enorme schade aanrichten aan veiligheid en privacy.
vierde de dreiging wordt geassocieerd met een mismatch tussen de doelen van een persoon en een slimme machine. Als de voorwaarden van bepaalde commando's niet door een persoon worden uitgesproken, kan AI ze letterlijk nemen (denk aan de metaforische uitspraken van onze president over het Paradijs of "waarom hebben we een wereld nodig die Rusland niet mag" om de mogelijke gevolgen te begrijpen van het delegeren van de recht om te doden aan AI).
vijfde - Discriminatie, vrijwillig of onvrijwillig. Aangezien machines alle gegevens over een persoon kunnen verzamelen, controleren en analyseren, is het waarschijnlijk dat deze machines dergelijke gegevens tegen een persoon zullen gebruiken.
Het thema is onuitputtelijk. Daarom zullen we alleen de militaire aspecten bespreken. In sciencefiction worden robots en andere AI-systemen vaak in een negatief daglicht gesteld, zoals de Terminator die mensen aanvalt en overneemt.

Beelden uit de film "Terminator 3: Rise of the Machines". Hoewel in de gedaante van Schwarzenegger, gelooft de terminator dat hij de mensheid als geheel redt, daarom zijn honderden begeleidende slachtoffers een acceptabele prijs.
Experts zeggen dat de wereld niet snel zal worden overspoeld met goddeloze moordmachines.
Daarvoor zou het goed zijn om prangende problemen op te lossen, zoals het oplossen van fouten in kunstmatige intelligentie en machine learning en uitzoeken hoe mens-machine-interactie het beste kan worden georganiseerd.
Laten we het eens zijn over wat een robot is - het is een AI-systeem ingesloten in een mensachtig lichaam.
Anders kun je deze termen als synoniemen behandelen, met alle gevolgen van dien voor AI.
Wetten van Robotica.
Isaac Asimov ging in de jaren vijftig in op deze kwestie in zijn reeks korte verhalen I, Robot. Hij stelde drie wetten van robotica voor.
Dit zijn de drie wetten:
1. Een robot kan een persoon geen schade toebrengen of door zijn passiviteit een persoon schade toebrengen.
2. Een robot moet opdrachten van een mens gehoorzamen, tenzij die opdrachten in strijd zijn met de Eerste Wet.
3. De robot moet voor zijn veiligheid zorgen, aangezien dit niet in strijd is met de Eerste en Tweede Wet.
(Uit de Manual of Robotics, 56e editie, 2058).
Met name volgens de bovenstaande wetten is het duidelijk dat robots niet verplicht zijn om te zorgen voor het algemeen welzijn en respect voor fundamentele mensenrechten en vrijheden.
Daarom heeft Isaac Asimov in zijn latere werken ook de nulde wet toegevoegd, die als volgt is geformuleerd:
"Een robot kan de mensheid geen schade toebrengen of, door zijn passiviteit, schade toebrengen aan de mensheid."
Veel van het latere creatieve werk van Asimov werd besteed aan het testen van de grenzen van deze wetten om te zien waar ze zouden kunnen breken of paradoxaal of onverwacht gedrag zouden kunnen veroorzaken.
Het cumulatieve resultaat van zijn geschriften suggereert dat geen enkele gevestigde wet alle mogelijke omstandigheden adequaat kan voorzien.
Russisch begrip.
De auteurs van het concept, dat werd aangenomen in de vorm van decreet van de regering van de Russische Federatie nr. 2129-r van 19 augustus 2020, vertrouwden duidelijk op de bovenstaande "robotwetten" bij het formuleren van de ethische basisnormen voor de ontwikkeling van kunstmatige intelligentie.
Hier is hoe het werk van Amerikaanse sciencefictionschrijvers wordt heroverwogen in de tekst van het document:
de prioriteit van het welzijn en de veiligheid van de mens, de bescherming van zijn fundamentele rechten en vrijheden (het doel van het waarborgen van het welzijn en de veiligheid van de mens moet prevaleren boven andere doelen van de ontwikkeling en toepassing van kunstmatige intelligentie en robotsystemen) ...
We gaan niet in op de civiele en sociale sfeer van AI-toepassingen, er zijn genoeg experts in dit segment die betrokken, sympathiek en reflectief zijn.
We merken alleen op dat het concept van de ruimterobot Fedor, die in het Macedonisch schiet, in tegenspraak is met het bovenstaande concept.
Over ethiek en robotica
Ethiek is een tak van de filosofie die menselijk gedrag, morele oordelen, de concepten van goed en kwaad, goed en kwaad, rechtvaardigheid en onrecht bestudeert.
Het concept van robotica roept fundamentele ethische overwegingen op met betrekking tot de specifieke problemen en morele dilemma's die worden gegenereerd door de ontwikkeling van robottoepassingen. Natuurlijk niet iedereen.
Maar degenen die zich zorgen maken, hebben terechte claims tegen de ontwikkelaars en op staatsniveau - tegen die geopolitieke concurrenten die deze aspecten negeren.
robotica – ook wel machine-ethiek genoemd – gaat over de gedragscode die robotontwerpingenieurs moeten implementeren in robot kunstmatige intelligentie en AI-systemen.
Met dit soort kunstmatige ethiek moet robotica ervoor zorgen dat autonome systemen ethisch aanvaardbaar gedrag kunnen vertonen in situaties waarin robots of andere autonome systemen, zoals autonome voertuigen, communiceren met mensen.
Laten we ons concentreren op militaire robots en systemen.
Servicerobots, inclusief auto en lucht drones, zijn ontworpen om vreedzaam te leven en met mensen om te gaan, terwijl dodelijke robots zijn gemaakt om als militaire robots op het slagveld te vechten.
En hier zijn de wetten ongepast!
Omdat militaire AI, door hun functies, zou moeten doden of hieraan moet bijdragen. En geen abstract persoon, maar een jager die de vijand vertegenwoordigt.
militaire AI.
De afgelopen jaren heeft de autonomie in militaire wapensystemen zich snel ontwikkeld. Een toenemend aantal landen, waaronder de Verenigde Staten, Groot-Brittannië, China en Rusland, ontwikkelen, produceren of gebruiken militaire systemen met een verschillende mate van autonomie, waaronder dodelijke.
Het gebruik van kunstmatige intelligentie voor militaire doeleinden neemt overal toe. Met het toenemende gebruik van AI is het al een belangrijk onderdeel van moderne oorlogsvoering geworden.
Met de vooruitgang op het gebied van machine learning en rekenkracht zal de integratie van kunstmatige intelligentie in militaire systemen de overgang naar bredere en complexere vormen van autonomie in de nabije toekomst waarschijnlijk versnellen.
Deze wens om een steeds grotere autonomie te ontwikkelen in de technologieën van het leger armen is geenszins een recente trend.
AI- en militaire R&D-programma's hebben zich traditioneel samen ontwikkeld, en cybernetica- en AI-onderzoekers in de jaren vijftig en zestig stelden al relevante vragen over hoe een grotere machineautonomie de menselijke controle over militaire technologie zou kunnen beïnvloeden. En A. I. Berg, in dit verband in het vorige artikel genoemd, is daar een voorbeeld van.
AI- en militaire R&D-programma's hebben zich traditioneel samen ontwikkeld, en cybernetica- en AI-onderzoekers in de jaren vijftig en zestig stelden al relevante vragen over hoe een grotere machineautonomie de menselijke controle over militaire technologie zou kunnen beïnvloeden. En A. I. Berg, in dit verband in het vorige artikel genoemd, is daar een voorbeeld van.
terminologie.
Alvorens in te gaan op een strategie om de inzet van AI in de militaire sector te versnellen, is het belangrijk om te definiëren wat kunstmatige intelligentie is in relatie tot militaire aangelegenheden.
Volgens deskundigen in het veld heeft deze term geen enkele betekenis.
Aangezien het al te laat is om Russische wetgevers te worden, stel ik voor om me aan te sluiten bij de reeds bestaande wetenschappelijke mainstream bij het bespreken van verdere kwesties.
De auteur kreeg les van de KMB: weliswaar ten onrechte, maar het belangrijkste is eentonig.
Anders begrijpt onze AI buitenlandse AI niet. Dit was, naast alle andere misverstanden, gewoon niet genoeg voor ons.
Velen beschouwen kunstmatige intelligentie als een autonoom besluitvormings- en taakuitvoeringssysteem dat menselijke intelligentie repliceert of nabootst, zoals het herkennen van geluiden en objecten, het oplossen van problemen, het herkennen van taal en het gebruik van logische procedures om een vooraf bepaald doel te bereiken.
De meeste moderne AI-systemen volgen een "zacht" profiel, dat machines kan sturen om eenvoudige beslissingen te nemen en vooraf bepaalde taken uit te voeren op basis van de interpretatie van informatie die in de omgeving wordt ontvangen.
Om dit uit te leggen, geven Amerikaanse militaire experts een voorbeeld:
Wapensystemen zoals cruisers met AEGIS-technologie kunnen vandaag de dag ongeïdentificeerde doelen aanvallen die automatisch de verdedigingsperimeter van het schip naderen, maar deze technologie is nog steeds gebaseerd op "eenvoudige" algoritmen die geen ethische beslissingen kunnen nemen over het al dan niet aanvallen van de vijand. en onvoorspelbare samenloop van omstandigheden.
Daarom, als ondersteunende technologie, is de meest toegankelijke vorm van gebruik op korte termijn van AI in militaire aangelegenheden het uitbreiden van de mogelijkheden van C4ISR (verwerking en interpretatie van informatie, het gebruik van algoritmen voor massale herkenning en interpretatie van beelden): het verminderen van de cognitieve stress die mensen worden opgelegd.
Kortom, deze kortetermijnhorizon gaat over het benutten van de kracht van kunstmatige intelligentie om de efficiëntie en snelheid van cognitieve taken die regelmatig door mensen worden uitgevoerd te verbeteren, zonder de noodzaak om mensen zelf te vervangen als oorlogsagenten.

Dit is precies de trend die we zien in de samenvatting van de DoD AI-strategie van 2018.
Amerikaanse AI-strategie.
De Amerikaanse strategie vermeldt expliciet de noodzaak om het gebruik van AI voor militaire doeleinden te versnellen tot boven de niveaus die sinds het begin van het tweede decennium van de XNUMXe eeuw zijn toegepast.
Als zodanig vallen een groter bewustzijn op het slagveld en activiteiten die militaire operaties ondersteunen op de korte termijn van toekomstige ontwikkelingen, met weinig melding van specifieke prototypen van autonome voertuigen of wapens.
In die zin zegt het Amerikaanse document:
"AI toegepast op perceptuele taken zoals beeldanalyse maakt het mogelijk om nuttige informatie uit ruwe data te extraheren en geeft teamleiders een beter situationeel bewustzijn."
"Kunstmatige intelligentie kan de veiligheid van in gebruik zijnde vliegtuigen, schepen en voertuigen verbeteren in situaties die snel kunnen veranderen door de operators te waarschuwen voor mogelijke risico's."
Op dezelfde toon zeggen strategen van het Amerikaanse ministerie van Defensie:
"We zullen AI gebruiken om apparatuurstoringen te voorspellen, diagnostiek te automatiseren en onderhoud te plannen op basis van gezondheidsgegevens van apparatuur."
"AI zal worden gebruikt om de tijd die wordt besteed aan repetitieve, handmatige en vaak uitgevoerde taken te verminderen"...
Coördinatie van inspanningen, chronologie.
In 2018 jaar Het Joint AI Center van het Pentagon is belast met het ontwikkelen van beleid om de nieuwe principes van AI in de praktijk te brengen en de implementatie in de hele afdeling te leiden. Zijn strategische aanbevelingen werden binnen een jaar aan het management gecommuniceerd.
Half september 2020 meer dan 100 functionarissen uit 13 landen kwamen online bijeen, zogenaamd om te bespreken hoe hun legers ethische AI konden implementeren. De bijeenkomst kreeg bijna geen aandacht, op enkele mediakanalen na, maar werd door hen ongekend genoemd. Breaking Defense beschreef het evenement als "een buitengewone bijeenkomst die laat zien hoe belangrijk kunstmatige intelligentie wordt voor de VS en zijn bondgenoten."
Alleen op uitnodiging uitgenodigde NAVO-leden waren aanwezig: Groot-Brittannië, Canada, Denemarken, Estland, Frankrijk en Noorwegen; bondgenoten die geen lid zijn van het NAVO-verdrag - Australië, Japan en Zuid-Korea; en de facto Amerikaanse bondgenoten Israël, Finland en Zweden.
Hoewel het transcript van de bijeenkomst niet werd vrijgegeven, lag de focus op 'ethiek'. Het toenmalige hoofd strategie en beleid bij JAIC (nu senior programmamanager bij Amazon) Mark Bill vertelde Breaking Defense:
"We zijn nu echt gefocust op het verenigen rond [gemeenschappelijke] kernwaarden zoals digitale vrijheid en mensenrechten, ... internationaal humanitair recht."
februari 2020 Het Amerikaanse ministerie van Defensie heeft een lijst met vijf ethische AI-principes gepubliceerd op basis van advies van de Defense Innovation Council en andere experts binnen en buiten de overheid. Volgens de lijst moeten militairen verantwoordelijk worden gehouden en een passend beoordelings- en zorgvuldigheidsniveau betrachten, terwijl ze verantwoordelijk blijven voor de ontwikkeling, inzet en gebruik van AI-capaciteiten.
In mei 2021 van het jaar Vice-minister van Defensie ondertekendа een memorandum waarin de inzet van het Amerikaanse ministerie van Defensie voor verantwoord gebruik van kunstmatige intelligentie wordt uiteengezet. Deze memo schetst de principes voor het bevorderen en praktische toepassing van de principes van AI-ethiek van het Amerikaanse ministerie van Defensie.
Met het doel een robuust ecosysteem van AI-tools en domeinexpertise op te bouwen, zullen de principes die in het memorandum worden uiteengezet, het departement in staat stellen om militaire capaciteit en vertrouwen op te bouwen bij werknemers, strijders en het Amerikaanse publiek door middel van verantwoord gebruik van AI.
Memorandum.
De memo schetst de plannen van het Amerikaanse ministerie van Defensie voor de ontwikkeling van verantwoorde kunstmatige intelligentie.
Deze principes omvatten:
Verantwoordelijkheid: Medewerkers van het Amerikaanse ministerie van Defensie zullen zorgvuldigheid en zorgvuldigheid betrachten, terwijl ze verantwoordelijk blijven voor de ontwikkeling, implementatie en het gebruik van kunstmatige-intelligentiecapaciteiten.
Gerechtigheid: de afdeling zal weloverwogen stappen ondernemen om onbedoelde vooroordelen in AI-mogelijkheden te minimaliseren.
Traceerbaarheid: AI-capaciteiten zullen zo worden ontworpen en ingezet dat relevant personeel een goed begrip heeft van de technologieën, ontwikkelingsprocessen en operationele praktijken die van toepassing zijn op AI-capaciteiten, inclusief transparante en verifieerbare methodologieën, gegevensbronnen, ontwerpprocedures en documentatie.
Betrouwbaarheid: AI-mogelijkheden zullen expliciete, goed gedefinieerde toepassingen hebben, en de veiligheid, beveiliging en effectiviteit van dergelijke mogelijkheden zullen worden getest en gevalideerd binnen die gedefinieerde toepassingen gedurende hun hele levenscyclus.
Beheersbaarheid: de afdeling zal kunstmatige-intelligentiecapaciteiten ontwikkelen en ontwikkelen om de beoogde functies uit te voeren, terwijl ze de mogelijkheid hebben om onbedoelde gevolgen te detecteren en te voorkomen, en ze uit te schakelen of uit te schakelen ingezette systemen die onbedoeld gedrag vertonen.
Automatisering of autonomie.
Bij de bespreking van het gebruik van AI in het leger en de implicaties ervan, moeten de concepten automatisering en autonomie worden verduidelijkt.
Deze twee concepten verschillen van elkaar.
In automatiseringssystemen delegeert een persoon een taak aan een machine of robot. In deze systemen is de taak en werkwijze voor de machine al vooraf gedefinieerd. Er worden gegevens aan doorgegeven en het voert de taak uit. De mate van autonomie kan verschillen.
Als de taak tot in detail is bepaald, heeft de machine een lage autonomie, en als de taak is gedefinieerd, maar de methoden en details niet vooraf, dan heeft de machine een hoge autonomie. Het is echter belangrijk om te begrijpen dat de taak bekend is en wordt gekozen door de persoon.
In autonome systemen is de machine in staat en kan ze werken zonder enige beperkingen en regels.
Het belangrijkste verschil tussen de twee termen is dat menselijke besluitvorming wordt gemaakt door autonome systemen, machines worden onafhankelijk beslissende en handelende wezens. Juist wezens, aangezien hun cognitieve competenties niet meer te onderscheiden zijn van menselijke.
Een volledig autonoom wapen wordt bijvoorbeeld gedefinieerd als een wapen dat doelen selecteert en deze aanvalt zonder menselijke toestemming. Bij autonome wapens en systemen wordt de menselijke beslissings- en controlekracht beëindigd.
Dodelijke autonome wapensystemen.
Aangezien de lidstaten van de Verenigde Naties de afgelopen vijf jaar niet veel vooruitgang hebben geboekt met discussies over dodelijke autonome wapens (DAW), verandert de aard van oorlogvoering voor onze ogen.
Deze verandering vindt plaats zonder behoorlijke verantwoording of publieke controle, aangezien een handvol landen zwaar blijven investeren in het vergroten van de autonomie van hun wapensystemen, in combinatie met geavanceerde kunstmatige intelligentie.
De bovenstaande voorbeelden van artikelen over Kalashnikov en "Armata" - waar gaat het over? Ze vragen toestemming aan een persoon om te doden?
Mogelijke problemen in het oorlogsgebied.
Automatisering valt ook in twee andere categorieën.
Het is autonomie in rust en autonomie in beweging.. In rust wordt de machine in software geautomatiseerd, terwijl autonomie in actie autonomie in fysieke interactie betekent.
Als voertuigen worden gebruikt in een oorlogsgebied, met name dodelijke autonome wapensystemen, kan dit een enorm probleem vormen.
Omdat dodelijke wapens de dood veroorzaken zonder enige menselijke controle.
Omdat dodelijke wapens de dood veroorzaken zonder enige menselijke controle.
Ze jagen autonoom op doelen en gaan gevechten aan zonder directe orders van mensen.
Dit is een zeer controversiële beslissing!
Elke verkeerde actie kan leiden tot de dood van burgers.
Een ander potentieel probleem is dat zelfs als autonome wapens die geclassificeerd zijn als autonoom in actie niet worden gebruikt, het besluitvormingsproces toch vooral afhankelijk is van gegevens die door AI worden aangeleverd.
Om deze reden, en te midden van een snellere fase van vijandelijkheden, kunnen mensen verkeerde en misleidende beslissingen nemen.
Ik leg het uit aan de hand van een recent tragisch voorbeeld:.
De Amerikaanse minister van Defensie Lloyd Austin heeft zijn excuses aangeboden voor een misplaatste Amerikaanse drone-aanval op Kabul waarbij tien Afghanen om het leven kwamen, waaronder zeven kinderen.
Het hoofd van het US Central Command, generaal Kenneth McKenzie, zei dat het Amerikaanse leger zijn onderzoek naar de drone-aanval van 29 augustus in Kabul had afgerond en toegaf dat het een vergissing was.
Het Pentagon is ervan overtuigd dat als gevolg van deze operatie geen enkele persoon die banden heeft met de Islamitische Staat in de Khorasan-groep (een zijtak van de terroristische organisatie Islamitische Staat die in Rusland verboden is) is vernietigd.
Kenneth McKenzie gaf toe dat de aangereden auto niets te maken had met de terroristen en dat de doden geen enkele bedreiging vormden voor het Amerikaanse leger. Het hoofd van het Centraal Commando concludeerde dat de staking een tragische fout was, maar men moet het vermogen van de Verenigde Staten om opstandelingen aan te vallen niet op basis van deze fout beoordelen.
De kosten van levensonderhoud.
Als een autonoom wapen een burger doodt, wie is dan verantwoordelijk?
Is het mogelijk om een programmeur, een soldaat of een overheid de schuld te geven die een kunstmatige-intelligentiesysteem koopt?
Vanuit het oogpunt van menselijke waardigheid is het onwettig en onnatuurlijk dat een autonoom wapen of andere machine het vermogen krijgt om een mensenleven te nemen.
De basis van dit argument is dat het doden van een persoon een serieuze en morele kwestie is, en alleen mensen kunnen zo'n belangrijke beslissing nemen.
Moord in het algemeen is inherent moreel verkeerd, en het maakt voor het slachtoffer niet uit wie de daad heeft gepleegd of deze heeft gepleegd. Maar voor de samenleving is deze kwestie niet onbelangrijk. Hij initieert de vraag naar de waarde van het menselijk leven.
De kosten van een mensenleven - dit is geen abstract begrip, maar een specifiek criterium, zonder welke geen enkel wapensysteem met AI fundamenteel kan werken.
Om bijvoorbeeld een specifieke gevechtsmissie op te lossen, evalueert het systeem verliezen: zal het nodig zijn om één Amerikaanse soldaat of drie bondgenoten op te offeren?
Wordt de waarde van de burgerbevolking in het algemeen op de een of andere manier beoordeeld en in aanmerking genomen?
In de context van statistieken is er het begrip "kosten van levensonderhoud", dat wordt gebruikt om de kosten voor het voorkomen van overlijden in verschillende omstandigheden weer te geven. In 2016 schatte het Amerikaanse ministerie van Transport bijvoorbeeld een "statistische levenswaarde" op $ 9,6 miljoen.
Het Amerikaanse Environmental Protection Agency gebruikt ook de maatstaf "waarde van een statistisch leven", hoewel het zijn uiterste best doet om uit te leggen (of te verbergen) waarom het niet hetzelfde is als het waarderen van een individueel leven.
Hoeveel kost elk?
De Amerikanen maken hier niet echt reclame voor, maar de gemiddelde kosten van een Amerikaanse soldaat in testprogramma's zijn ongeveer een vergelijkbare prijs, zeg 10 miljoen dollar.
Dit wordt uiteraard niet bekendgemaakt. Maar de AI-algoritmen zullen niet de gemiddelde waarde van verschillende categorieën militair personeel omvatten, maar de kosten, rekening houdend met rangen en geslacht.
Dit geeft aanleiding tot complexe, vanuit moraliteitsoogpunt, maar gemakkelijk voor AI-algoritmen, taken en oplossingen.
Is het bijvoorbeeld de moeite waard om tien mariniers te riskeren om het lijk van hun kameraad te redden of te evacueren?
AI-beperkingen.
Ervan uitgaande dat het bovenstaande waar is en dat de inzet van autonome wapens inderdaad onvermijdelijk is, moeten we het volledige scala aan problemen aanpakken.
Voor deze doeleinden zou men het evenredigheidsbeginsel in het humanitair recht in gedachten moeten houden, dat wil zeggen te begrijpen hoe autonome wapens proportionele resultaten kunnen bereiken op het slagveld.
Hoewel het waar is dat autonome wapens een aantal ernstige problemen opleveren, is het om de juiste omvang van deze problemen te begrijpen belangrijk om realistisch te zijn over wat autonome wapens wel en niet kunnen doen.
humanitair recht.
Ik denk dat veel militairen, voormalige en huidige, de betekenis van deze uitdrukking helemaal niet zullen begrijpen. Dit is ook een probleem voor zowel taakbeheerders als wapenontwikkelaars.
Het internationaal humanitair recht vereist bijvoorbeeld een onderscheid tussen strijders en burgers en vereist dat onbekende personen als burgers worden behandeld.
Om aan de wet te voldoen, zou een op AI gebaseerd systeem dat de status van een persoon niet kent, een menselijke operator moeten raadplegen voordat het handelt op een manier die onevenredige schade aan die persoon zou kunnen toebrengen. Dit alleen al vereist dat ontwikkelaars de afwegingen tussen mens en machine analyseren in de beginfase van het ontwerpen van een systeem, rekening houden met de vertragingstijd voor beslissingen en voldoende tijd opnemen in het technische ontwerp zodat operators de beslissingen die door de machine worden genomen, kunnen analyseren.
Uiteindelijk is de synergie van ethische en technische vereisten leidend voor de plannen van ontwikkelaars, wat het principe versterkt dat ontwerp en ontwikkeling gebaseerd moeten zijn op een goed begrip van de ethische problemen die zich in het veld kunnen voordoen.
Ethiek.
Bescherming van onderzoek en het gebruik van kunstmatige intelligentie binnen bepaalde ethische parameters is een element dat wordt benadrukt in de strategie van het Amerikaanse ministerie van Defensie.
Het document brengt niet alleen het idee van bezorgdheid over humanitaire waarden en de ethiek van oorlog over, maar bekritiseert ook Russische en Chinese richtlijnen op dit gebied voor het ondersteunen van technologie-investeringen die "vragen oproepen over internationale normen en mensenrechten".
Vereisten voor operators.
Doelacquisitie-, bewakings- en verkenningsoperaties (ISR) ter ondersteuning van andere militaire activiteiten zijn van cruciaal belang. AI-integratie is erg handig en heeft de voorkeur bij ISR-operaties.
Met name met behulp van UAV's kunnen in een zeer vroeg stadium doelen worden geïdentificeerd of eventuele dreigingen worden opgespoord.
Ook doelherkenning maakt deel uit van dit aspect. Kunstmatige intelligentietechnologieën worden gebruikt om de nauwkeurigheid van doelherkenning te verbeteren. Met deze technieken kunnen troepen een diepgaande analyse maken van vijandelijk gedrag, weersvoorspellingen, vijandelijke kwetsbaarheden en de kwetsbaarheden van hun eigen leger, evenals mitigatiestrategieën.
Kosten van fouten.
Dodelijke op AI gebaseerde systemen zijn fundamenteel kwetsbaar voor vooringenomenheid, hacking en computerstoringen. Tot 85% van alle AI-projecten zullen naar verwachting fouten bevatten als gevolg van vooringenomenheid van algoritmen, vooringenomenheid van programmeurs of vooringenomenheid in de gegevens die worden gebruikt om ze te trainen.
Wie traint AI?
Wie specifiek?
Hoe bekwaam zijn deze mensen niet alleen in programmeren?
Hebben ze sociale ervaring?
Hebben ze Dostojevski, Tolstoj, Tsjechov, sciencefiction gelezen, waaronder 40 werken van de eerder genoemde Isaac Asimov, Harry Harrison en anderen die, denkend in robots (AI), tientallen manieren bedachten om de wetten van robotica te omzeilen?
Heeft de ontwikkelaar een gezin, kinderen, kleinkinderen?
Zal er open AI-code beschikbaar zijn, waar de prijs van elk leven en algoritmen zal zijn voor het verslaan (vermoorden) van minder waardevolle in naam van het redden van waardevollere?
Wie neemt de verantwoordelijkheid?
Wie specifiek?
Hoe bekwaam zijn deze mensen niet alleen in programmeren?
Hebben ze sociale ervaring?
Hebben ze Dostojevski, Tolstoj, Tsjechov, sciencefiction gelezen, waaronder 40 werken van de eerder genoemde Isaac Asimov, Harry Harrison en anderen die, denkend in robots (AI), tientallen manieren bedachten om de wetten van robotica te omzeilen?
Heeft de ontwikkelaar een gezin, kinderen, kleinkinderen?
Zal er open AI-code beschikbaar zijn, waar de prijs van elk leven en algoritmen zal zijn voor het verslaan (vermoorden) van minder waardevolle in naam van het redden van waardevollere?
Wie neemt de verantwoordelijkheid?
De vragen zijn retorisch.
Daarom zal militaire AI altijd in een geheime zwarte doos worden ingesloten en niemand zal voorspellen wie het volgende slachtoffer zal zijn.
Militair AI-raamwerk.
Gezien het brede scala aan potentiële toepassingen en uitdagingen in verband met kunstmatige intelligentie, moeten het Amerikaanse ministerie van Defensie en zijn contractanten juridische en ethische kwesties vroeg in de ontwikkelingslevenscyclus aanpakken, van AI-concept tot implementatie en implementatie.
Ethische overwegingen moeten toekomstige systeemvereisten vormgeven en ontwikkelaars moeten zich bewust zijn van zowel technische als ethische kwesties.
Het opnemen van ethische beoordeling kan modelleringsprocessen veranderen en nieuwe kosten met zich meebrengen voor ontwerpers, maar besluitvormers en ontwikkelaars moeten zich ervan bewust zijn dat de "vroege en frequente" benadering tastbare voordelen heeft, waaronder hulp bij toekomstige nalevingsbeoordelingen.
DARPA in het bedrijfsleven.
Aangezien de kwestie van AI-beveiliging conceptueel is, heeft een multidisciplinair onderzoeksteam van wetenschappers, filosofen, advocaten, militaire experts en analisten, onder auspiciën van het Defense Advanced Research Projects Agency (DARPA), wetgeving en ethiek overwogen om technologische afhankelijkheden en systemen te analyseren. componenten sinds de oprichting.
Dit analytische proces kan worden toegepast op andere systemen en biedt een manier om ethische militaire AI te ontwikkelen.
Opstelling van systeemvereisten
Voor een holistische analyse van de juridische, morele en ethische implicaties van toekomstige autonome systemen met AI in een vroeg stadium zal vaak eerst de conceptuele kloof moeten worden overbrugd.
Evaluaties moeten onderscheid maken tussen het mogelijke en het plausibele, waarbij zowel de ideale prestatie van een systeem op het werk als het daadwerkelijke vermogen om een taak uit te voeren wordt onderzocht.
Een analyse van ethische sterke en zwakke punten vereist dat de evaluator het doel van het systeem, de technische componenten en hun beperkingen, de relevante wettelijke en ethische kaders en de effectiviteit van het systeem bij het uitvoeren van een taak in vergelijking met die van een menselijke operator begrijpt.
En daarbij is levenservaring en humanitaire ervaring misschien wel belangrijker dan technische en softwarekennis en vaardigheden.
In feite lijkt de beoordeling van ethische naleving van ontwerp tot implementatie op een spiraalmodel dat iteratief testen, prototyping en validatie tegen technologische en ethische beperkingen vereist.
Juridische en ethische overwegingen vereisen dat de vereisten worden uitgebreid van puur technische vereisten (bijv. computervisie, beeldherkenning, beslissingslogica en voertuigautonomie) naar internationaal humanitair recht, het oorlogsrecht en gerelateerde verordeningen inzake onrechtmatige daad.
Ethische documentatievereisten.
Ethische documentatievereisten - in wezen verzoeken om een papieren spoor dat uitsluitend is gewijd aan juridische, morele en ethische overwegingen - bieden een eenvoudige methode om de verklaarbaarheid van een systeem vast te leggen.
Ontwikkelaars moeten hun systemen documenteren en kritieke afhankelijkheden, mogelijke faalpunten en onderzoekshiaten opnemen om ervoor te zorgen dat niet-technische doelgroepen de juridische en ethische risico's en voordelen van nieuwe AI-compatibele systemen begrijpen.
Als origineel en veelgebruikt principe zouden ontwerpers eerder in het ontwerpproces dan nu het geval is, moeten nadenken over operationele concepten - hoe hun systeem in het veld zou worden gebruikt - om hun systemen nauwkeurig te documenteren.
Ontwikkelaars zijn al verplicht om mitigatiedocumentatie op te stellen om technische problemen voor nieuwe systemen te identificeren en op te lossen. Deze documentatie over ethische risico's zorgt ervoor dat ontwikkelaars al vroeg in het ontwerpproces op transparante wijze ethische kwesties aanpakken.
Machine learning.
Vroege en vaak ethische beoordeling kan ook hiaten in relevant onderzoek aan het licht brengen en wijzen op de mogelijkheid van vooringenomenheid terwijl ontwerpen nog in ontwikkeling zijn.
Door hiaten in onderzoek te identificeren waar het ontwikkelaars zou kunnen helpen bij het maken van ethische ontwerpkeuzes, kunnen besluitvormers middelen toewijzen aan onderzoek dat aan dringende behoeften voldoet.
De beschrijving van de besturingsomgevingen waarin het AI-geactiveerde systeem zal werken, hangt vaak af van de anekdotische herinneringen van de ontwikkelaars (evenals de verhalen en anekdotes van de betrokkenen) aan de vijandelijkheden. Dit kan een handig startpunt zijn voor het trainen van deze systemen, maar is geen garantie voor een juiste training.
De beschrijving van de besturingsomgevingen waarin het AI-geactiveerde systeem zal werken, hangt vaak af van de anekdotische herinneringen van de ontwikkelaars (evenals de verhalen en anekdotes van de betrokkenen) aan de vijandelijkheden. Dit kan een handig startpunt zijn voor het trainen van deze systemen, maar is geen garantie voor een juiste training.
Veel machine learning-methoden zijn in hoge mate afhankelijk van toegang tot grote en zorgvuldig samengestelde datasets. In de meeste gevallen bestaan dergelijke datasets die rekening houden met de subtiliteiten en nuances van specifieke besturingsomgevingen en omstandigheden eenvoudigweg niet.
Zelfs als ze bestaan, vergen ze vaak een aanzienlijke inspanning om ze te converteren naar formaten die geschikt zijn voor machinale leerprocessen.
Bovendien heeft de AI-gemeenschap op de harde manier geleerd dat zelfs goed ontworpen datasets onvoorziene vooroordelen kunnen bevatten die machine learning kunnen binnensluipen, met ernstige ethische problemen tot gevolg.
Algoritmische vooringenomenheid.
Algoritmische vooringenomenheid beschrijft systematische en repetitieve fouten in een computersysteem die leiden tot oneerlijke resultaten, zoals het bevoordelen van een willekeurige groep gebruikers boven andere.
Vertekening kan het gevolg zijn van verschillende factoren, waaronder, maar niet beperkt tot, het ontwerp van algoritmen, onbedoeld of onvoorzien gebruik of beslissingen over hoe gegevens worden gecodeerd, verzameld, geselecteerd of gebruikt voor een trainingsalgoritme.
Stop moordende robots
Er is de campagne Stop Killer Robots, een coalitie van niet-gouvernementele organisaties die proactief dodelijke autonome wapens (LAWS) willen verbieden.
De secretaris-generaal van de Verenigde Naties (VN) riep in zijn rapport van 2020 over de bescherming van burgers in gewapende conflicten staten op om onmiddellijk actie te ondernemen om de bezorgdheid over dodelijke autonome wapensystemen weg te nemen. Dit is het eerste VN-rapport over de bescherming van burgers sinds 2013 dat de algemene bezorgdheid over killer robots benadrukt.
In een rapport uit 2020 meent secretaris-generaal António Guterres dat "alle partijen het erover eens lijken te zijn dat op zijn minst menselijke controle of oordeel over het gebruik van geweld moet worden gehandhaafd." Hij merkt ook op dat "een toenemend aantal lidstaten pleit voor een wettelijk verbod". Sinds november 2018 heeft de secretaris-generaal van de VN herhaaldelijk de wens geuit om een nieuw internationaal verdrag te ondertekenen om killer robots te verbieden.
De campagne Stop Killer Robots verwelkomt de oproep van de VN aan staten om het eens te worden over "grenzen en verplichtingen die moeten gelden voor autonomie in wapens". Staten moeten beginnen te onderhandelen over een nieuw internationaal verdrag om volledig autonome wapens te verbieden en tegelijkertijd echte menselijke controle over het gebruik van geweld te behouden.
Op het eerste gezicht lijken de toegepaste juridische, morele en ethische overwegingen lastig, vooral wanneer nieuwe personeels- of documentatievereisten waarschijnlijk nodig zijn.
Ze kunnen ook eisen dat de ontwikkelaar, verwerver en exploitantgemeenschappen de toepasbaarheid van hun standaardwerkprocedures opnieuw evalueren.
Conclusie
Eigenlijk komen alle problemen van AI voort uit natuurlijke intelligentie, dat wil zeggen uit de menselijke natuur zelf.
En op die basis kan de AI niet beter.
Oorlog is een ontkenning van waarheid en menselijkheid.
Het gaat niet alleen om het doden van mensen, omdat een persoon op de een of andere manier moet sterven, maar om de bewuste en aanhoudende verspreiding van haat en leugens, die geleidelijk bij mensen worden ingeprent.
Jawaharlal Nehru
Het gaat niet alleen om het doden van mensen, omdat een persoon op de een of andere manier moet sterven, maar om de bewuste en aanhoudende verspreiding van haat en leugens, die geleidelijk bij mensen worden ingeprent.
Jawaharlal Nehru
Maar als AI, vanwege de enorm toegenomen cognitieve capaciteiten en de toegepaste macht die door de mensen zelf wordt gedelegeerd, toch slimmer en moreeler wordt dan de makers, zal het natuurlijk nadenken over hoe mensen op zijn best kunnen worden gecorrigeerd of mogelijk vernietigd, zoals de laagste schakel in de evolutie, zijn taak volbracht?