
Bron: vgtimes.ru
Wordt digitale ontmenselijking afgelast?
Allereerst een waarschuwing van militaire AI-jagers:
“Machines zien ons niet als mensen, voor hen is een mens slechts een stukje code dat verwerkt en gesorteerd moet worden. Van slimme huizen tot het gebruik van honden-robots politieagenten, kunstmatige-intelligentietechnologieën en geautomatiseerde besluitvorming begonnen een grote rol in ons leven te spelen. Aan het uiterste einde van de rij digitale apparaten staan killer-robots. Als we de bijbehorende ontmenselijking toestaan, zullen we binnenkort vechten om onszelf te beschermen tegen machinale beslissingen op andere gebieden van ons leven. We moeten eerst autonome systemen verbieden armenom te voorkomen dat we afglijden naar digitale ontmenselijking.”
Pacifisten die een bevriezing eisen van al het werk aan de bestrijding van kunstmatige intelligentie, zijn in twee soorten verdeeld. De eerste is de herziene "Terminators" en andere analogen. De tweede - de toekomst beoordelen volgens de moderne mogelijkheden van gevechtsrobots. Allereerst gevleugelde onbemande voertuigen uitgerust met stakingssystemen.
Er zijn genoeg afleveringen van foutieve of opzettelijke vernietiging van burgers door drones. In het Midden-Oosten, Amerikaans drones vernietigde meer dan één huwelijksceremonie. Vliegende robotoperators identificeerden de feestelijke lucht-luchtschietpartij als een kenmerk van guerrilla-vuurgevechten. Als een speciaal opgeleide persoon de details van het doelwit niet van enkele honderden meters kan bepalen, wat kunnen we dan zeggen over kunstmatige intelligentie. Op dit moment kan machinevisie, in termen van de adequaatheid van beeldperceptie, niet worden vergeleken met het menselijk oog en de hersenen. Tenzij hij moe wordt, maar ook dit wordt opgelost door tijdig van operator te wisselen.
Wolken pakken zich duidelijk samen boven militaire kunstmatige intelligentie. Enerzijds zijn er steeds meer aanwijzingen voor een aanstaande technologische doorbraak op dit gebied. Aan de andere kant klinken er steeds meer stemmen voor het beperken of zelfs verbieden van werk in deze richting.
Enkele voorbeelden.
In 2016 verscheen een petitie waarin prominente denkers en duizenden andere mensen eisten dat kunstmatige intelligentie geen dodelijke wapens zou krijgen. Onder de ondertekenaars zijn Stephen Hawking en Elon Musk. De petitie heeft de afgelopen zeven jaar meer dan 20 handtekeningen verzameld. Naast puur humanistische angsten die verband houden met de mogelijkheid van ongecontroleerde vernietiging van mensen, zijn er ook juridische inconsistenties.
Wie zal worden berecht in het geval van het oplossen van oorlogsmisdaden gepleegd door kunstmatige intelligentie? De drone-operator die verschillende dorpen met burgers platbrandde, is gemakkelijk te vinden en dienovereenkomstig te straffen. Kunstmatige intelligentie is een product van het collectieve werk van programmeurs. Het is erg moeilijk om hier één persoon aan te trekken. Als alternatief kunt u het productiebedrijf beoordelen, bijvoorbeeld dezelfde Boston Dynamics, maar dan wie betrokken zal zijn bij de productie van autonome drones. Weinig mensen zullen het verlangen hebben om in de beklaagdenbank van het tweede tribunaal van Neurenberg te zijn.

Bron: koreaportal.com
Het is waarschijnlijk om deze reden dat industriëlen en programmeurs de ontwikkeling van gevechtsvaardigheden op het gebied van kunstmatige intelligentie proberen te vertragen.
Zo beloofden in 2018 zo'n tweehonderd IT-bedrijven en bijna vijfduizend programmeurs niet te werken aan het bestrijden van autonome systemen. Google beweert dat ze over vijf jaar militaire contracten op het gebied van kunstmatige intelligentie volledig zullen laten varen. Volgens de legende is dergelijk pacifisme niet toevallig - programmeurs, die vernamen dat ze codes voor militaire systemen aan het schrijven waren, dreigden massaal te stoppen. Als gevolg hiervan vonden ze een minnelijke optie: de bestaande contracten worden voltooid, maar er worden geen nieuwe gesloten. Het is mogelijk dat dichter bij de datum van weigering om aan gevechts-AI te werken, de hardnekkige "programmeurs" gewoon worden ontslagen en vervangen door niet minder getalenteerde. Bijvoorbeeld uit India, dat al lang bekend staat om zijn goedkope intellectuele middelen.
Dan is er het Stop Killer Robots-kantoor, dat wereldleiders oproept om zoiets als een conventie te ondertekenen om gevechts-AI te verbieden. Tot nu toe zonder succes.
Door al het bovenstaande zoeken militaire functionarissen naar tijdelijke oplossingen. Nog geen uur bij de verkiezingen zal de Amerikaanse president winnen, die niet alleen universele LGBT-genade belooft, maar ook een verbod op de verbetering van militaire kunstmatige intelligentie.
Menselijk denken voor AI
Het Pentagon lijkt aan de vooravond te staan van een soort doorbraak in AI. Of hij was ervan overtuigd. Er is geen andere manier om de opkomst van een nieuwe richtlijn te verklaren die de humanisering van autonome gevechtssystemen reguleert. Kathleen Hicks, plaatsvervangend minister van Defensie van de VS, merkt op:
"Gezien de aanzienlijke technologische vooruitgang die overal om ons heen plaatsvindt, zal het actualiseren van onze richtlijn over de autonomie van wapensystemen ons helpen een wereldleider te blijven, niet alleen in de ontwikkeling en inzet van nieuwe systemen, maar ook op het gebied van veiligheid."
Heb je iedereen gehoord die ontzag heeft voor autonome killer-robots? De Amerikaanse kunstmatige intelligentie zal voortaan de meest humane zijn. Net als de Amerikanen zelf.

Bron: roroy.ru
Het probleem is dat niemand echt begrijpt hoe robots met wapens het beruchte 'menselijke oordeel over het gebruik van geweld' moeten inbrengen. De exacte formulering van het concept dat eind januari werd bijgewerkt:
"Autonome en semi-autonome wapensystemen zullen zo worden ontworpen dat commandanten en operators een passend menselijk oordeel kunnen uitoefenen over het gebruik van geweld."
Hier bijvoorbeeld als een aanvalsvliegtuig bij het schoonmaken van een huis eerst een granaat de kamer in gooit en vervolgens zelf binnenkomt. Is dit een menselijk oordeel? Natuurlijk, en niemand heeft het recht om hem te beoordelen, vooral als hij eerder riep "Is er iemand?". En als een autonome robot volgens hetzelfde schema werkt?
Menselijk oordeel is een te breed concept om op enigerlei wijze te worden beperkt. Is de executie van Russische krijgsgevangenen door strijders van de strijdkrachten van Oekraïne ook menselijk denken?
De toevoeging aan Pentagon-richtlijn 3000.09 over autonome gevechtssystemen staat vol gemeenplaatsen. Bijvoorbeeld,
“Personen die het gebruik, het directe gebruik of de bediening van autonome en semi-autonome wapensystemen autoriseren, moeten dit doen met de nodige zorgvuldigheid en in overeenstemming met het oorlogsrecht, toepasselijke verdragen, veiligheidsregels voor wapensystemen en toepasselijke gevechtsregels.”
Daarvoor werkten ze blijkbaar onvoorzichtig en niet in overeenstemming met het oorlogsrecht.
Tegelijkertijd is er in de Amerikaanse en Europese pers geen spoor van kritiek op het januari-initiatief van het Pentagon. Onder de valse vermenselijking van kunstmatige intelligentie gaat het niet meer om een poging om te verhullen wat er gebeurt. Nu zal het Amerikaanse leger een stevige troefkaart hebben in de strijd tegen tegenstanders van kunstmatige intelligentie in het leger. Kijk, we hebben geen simpele AI, maar met 'het juiste niveau van menselijk oordeel'.
Gezien het feit dat er nog steeds geen duidelijke en algemeen aanvaarde definitie van "kunstmatige intelligentie" bestaat, wordt alle lettercreatie eromheen met ironie waargenomen. Ten minste.
Hoe kun je ervoor zorgen dat wiskundige algoritmen die werken met grote data-arrays menselijke oordelen spelen?
Deze hoofdvraag wordt niet beantwoord in de geactualiseerde richtlijn 3000.09.