militaire beoordeling

Aantekeningen van de menselijke geest: Amerikanen willen militaire kunstmatige intelligentie veranderen

54
Aantekeningen van de menselijke geest: Amerikanen willen militaire kunstmatige intelligentie veranderen
Bron: vgtimes.ru



Wordt digitale ontmenselijking afgelast?


Allereerst een waarschuwing van militaire AI-jagers:

“Machines zien ons niet als mensen, voor hen is een mens slechts een stukje code dat verwerkt en gesorteerd moet worden. Van slimme huizen tot het gebruik van honden-robots politieagenten, kunstmatige-intelligentietechnologieën en geautomatiseerde besluitvorming begonnen een grote rol in ons leven te spelen. Aan het uiterste einde van de rij digitale apparaten staan ​​killer-robots. Als we de bijbehorende ontmenselijking toestaan, zullen we binnenkort vechten om onszelf te beschermen tegen machinale beslissingen op andere gebieden van ons leven. We moeten eerst autonome systemen verbieden armenom te voorkomen dat we afglijden naar digitale ontmenselijking.”

Pacifisten die een bevriezing eisen van al het werk aan de bestrijding van kunstmatige intelligentie, zijn in twee soorten verdeeld. De eerste is de herziene "Terminators" en andere analogen. De tweede - de toekomst beoordelen volgens de moderne mogelijkheden van gevechtsrobots. Allereerst gevleugelde onbemande voertuigen uitgerust met stakingssystemen.

Er zijn genoeg afleveringen van foutieve of opzettelijke vernietiging van burgers door drones. In het Midden-Oosten, Amerikaans drones vernietigde meer dan één huwelijksceremonie. Vliegende robotoperators identificeerden de feestelijke lucht-luchtschietpartij als een kenmerk van guerrilla-vuurgevechten. Als een speciaal opgeleide persoon de details van het doelwit niet van enkele honderden meters kan bepalen, wat kunnen we dan zeggen over kunstmatige intelligentie. Op dit moment kan machinevisie, in termen van de adequaatheid van beeldperceptie, niet worden vergeleken met het menselijk oog en de hersenen. Tenzij hij moe wordt, maar ook dit wordt opgelost door tijdig van operator te wisselen.

Wolken pakken zich duidelijk samen boven militaire kunstmatige intelligentie. Enerzijds zijn er steeds meer aanwijzingen voor een aanstaande technologische doorbraak op dit gebied. Aan de andere kant klinken er steeds meer stemmen voor het beperken of zelfs verbieden van werk in deze richting.

Enkele voorbeelden.

In 2016 verscheen een petitie waarin prominente denkers en duizenden andere mensen eisten dat kunstmatige intelligentie geen dodelijke wapens zou krijgen. Onder de ondertekenaars zijn Stephen Hawking en Elon Musk. De petitie heeft de afgelopen zeven jaar meer dan 20 handtekeningen verzameld. Naast puur humanistische angsten die verband houden met de mogelijkheid van ongecontroleerde vernietiging van mensen, zijn er ook juridische inconsistenties.

Wie zal worden berecht in het geval van het oplossen van oorlogsmisdaden gepleegd door kunstmatige intelligentie? De drone-operator die verschillende dorpen met burgers platbrandde, is gemakkelijk te vinden en dienovereenkomstig te straffen. Kunstmatige intelligentie is een product van het collectieve werk van programmeurs. Het is erg moeilijk om hier één persoon aan te trekken. Als alternatief kunt u het productiebedrijf beoordelen, bijvoorbeeld dezelfde Boston Dynamics, maar dan wie betrokken zal zijn bij de productie van autonome drones. Weinig mensen zullen het verlangen hebben om in de beklaagdenbank van het tweede tribunaal van Neurenberg te zijn.


Bron: koreaportal.com

Het is waarschijnlijk om deze reden dat industriëlen en programmeurs de ontwikkeling van gevechtsvaardigheden op het gebied van kunstmatige intelligentie proberen te vertragen.

Zo beloofden in 2018 zo'n tweehonderd IT-bedrijven en bijna vijfduizend programmeurs niet te werken aan het bestrijden van autonome systemen. Google beweert dat ze over vijf jaar militaire contracten op het gebied van kunstmatige intelligentie volledig zullen laten varen. Volgens de legende is dergelijk pacifisme niet toevallig - programmeurs, die vernamen dat ze codes voor militaire systemen aan het schrijven waren, dreigden massaal te stoppen. Als gevolg hiervan vonden ze een minnelijke optie: de bestaande contracten worden voltooid, maar er worden geen nieuwe gesloten. Het is mogelijk dat dichter bij de datum van weigering om aan gevechts-AI te werken, de hardnekkige "programmeurs" gewoon worden ontslagen en vervangen door niet minder getalenteerde. Bijvoorbeeld uit India, dat al lang bekend staat om zijn goedkope intellectuele middelen.

Dan is er het Stop Killer Robots-kantoor, dat wereldleiders oproept om zoiets als een conventie te ondertekenen om gevechts-AI te verbieden. Tot nu toe zonder succes.

Door al het bovenstaande zoeken militaire functionarissen naar tijdelijke oplossingen. Nog geen uur bij de verkiezingen zal de Amerikaanse president winnen, die niet alleen universele LGBT-genade belooft, maar ook een verbod op de verbetering van militaire kunstmatige intelligentie.

Menselijk denken voor AI


Het Pentagon lijkt aan de vooravond te staan ​​van een soort doorbraak in AI. Of hij was ervan overtuigd. Er is geen andere manier om de opkomst van een nieuwe richtlijn te verklaren die de humanisering van autonome gevechtssystemen reguleert. Kathleen Hicks, plaatsvervangend minister van Defensie van de VS, merkt op:

"Gezien de aanzienlijke technologische vooruitgang die overal om ons heen plaatsvindt, zal het actualiseren van onze richtlijn over de autonomie van wapensystemen ons helpen een wereldleider te blijven, niet alleen in de ontwikkeling en inzet van nieuwe systemen, maar ook op het gebied van veiligheid."

Heb je iedereen gehoord die ontzag heeft voor autonome killer-robots? De Amerikaanse kunstmatige intelligentie zal voortaan de meest humane zijn. Net als de Amerikanen zelf.


Bron: roroy.ru

Het probleem is dat niemand echt begrijpt hoe robots met wapens het beruchte 'menselijke oordeel over het gebruik van geweld' moeten inbrengen. De exacte formulering van het concept dat eind januari werd bijgewerkt:

"Autonome en semi-autonome wapensystemen zullen zo worden ontworpen dat commandanten en operators een passend menselijk oordeel kunnen uitoefenen over het gebruik van geweld."

Hier bijvoorbeeld als een aanvalsvliegtuig bij het schoonmaken van een huis eerst een granaat de kamer in gooit en vervolgens zelf binnenkomt. Is dit een menselijk oordeel? Natuurlijk, en niemand heeft het recht om hem te beoordelen, vooral als hij eerder riep "Is er iemand?". En als een autonome robot volgens hetzelfde schema werkt?

Menselijk oordeel is een te breed concept om op enigerlei wijze te worden beperkt. Is de executie van Russische krijgsgevangenen door strijders van de strijdkrachten van Oekraïne ook menselijk denken?

De toevoeging aan Pentagon-richtlijn 3000.09 over autonome gevechtssystemen staat vol gemeenplaatsen. Bijvoorbeeld,

“Personen die het gebruik, het directe gebruik of de bediening van autonome en semi-autonome wapensystemen autoriseren, moeten dit doen met de nodige zorgvuldigheid en in overeenstemming met het oorlogsrecht, toepasselijke verdragen, veiligheidsregels voor wapensystemen en toepasselijke gevechtsregels.”

Daarvoor werkten ze blijkbaar onvoorzichtig en niet in overeenstemming met het oorlogsrecht.

Tegelijkertijd is er in de Amerikaanse en Europese pers geen spoor van kritiek op het januari-initiatief van het Pentagon. Onder de valse vermenselijking van kunstmatige intelligentie gaat het niet meer om een ​​poging om te verhullen wat er gebeurt. Nu zal het Amerikaanse leger een stevige troefkaart hebben in de strijd tegen tegenstanders van kunstmatige intelligentie in het leger. Kijk, we hebben geen simpele AI, maar met 'het juiste niveau van menselijk oordeel'.

Gezien het feit dat er nog steeds geen duidelijke en algemeen aanvaarde definitie van "kunstmatige intelligentie" bestaat, wordt alle lettercreatie eromheen met ironie waargenomen. Ten minste.

Hoe kun je ervoor zorgen dat wiskundige algoritmen die werken met grote data-arrays menselijke oordelen spelen?

Deze hoofdvraag wordt niet beantwoord in de geactualiseerde richtlijn 3000.09.
auteur:
54 opmerkingen
Объявление

Abonneer je op ons Telegram-kanaal, regelmatig aanvullende informatie over de speciale operatie in Oekraïne, een grote hoeveelheid informatie, video's, iets dat niet op de site staat: https://t.me/topwar_official

informatie
Beste lezer, om commentaar op een publicatie achter te laten, moet u: inloggen.
  1. Yorgven
    Yorgven 12 maart 2023 04:18
    + 12
    AI moet de ideeën van het marxisme-leninisme van kinds af aan bijbrengen, dan komt alles goed, zoals in Atomic Heart
    1. nikon7717
      nikon7717 12 maart 2023 13:55
      +2
      Er zijn drie principes van de robotica van A. Azimov:
      De robot mag geen schade toebrengen aan de gezondheid van de mens, geen levensbedreiging vormen of, door niets te doen, soortgelijke gevolgen hebben;
      De robot is belast met de verplichte uitvoering van door een persoon gegeven bevelen. De enige uitzondering is dat het gegeven bevel niet in tegenspraak mag zijn met de vorige bepaling;
      De robot is belast met het zich zorgen maken over zijn eigen veiligheid voor zover en voor zover zijn acties de twee voorgaande punten niet weerleggen.

      Deze regels uit 1942 zijn bekritiseerd vanwege hun tegenstrijdige bewoordingen.
      Ter vergelijking: nieuwe van Google, OpenAI en wetenschappers van de University of Berkeley en Stanford University, waarmee rekening moet worden gehouden bij het maken van robots en kunstmatige-intelligentiesystemen.
      Negatieve bijwerkingen vermijden. Een robot kan bijvoorbeeld een vaas breken om het schoonmaakproces te versnellen. Het zou niet zo moeten zijn;

      Bedrog voorkomen. De robot moet het afval opruimen, niet verstoppen;

      Schaalbaarheid van toezicht. De robot moet de eigenaar niet lastigvallen met vragen als het mogelijk is om effectiever advies te krijgen;

      Veilig leren. Een schoonmaakrobot moet niet experimenteren met het afvegen van uitlaten met een natte doek;

      Veerkracht voor een verandering in het soort activiteit. De ervaring die een robot opdoet bij het schoonmaken van de vloer in een fabriekswinkel is misschien niet veilig bij het schoonmaken van een kantoor

      Zoals je kunt zien, zijn er geen uniforme regels. En onlangs begonnen ze vals te spelen met legale formuleringen in termen van het schaden van een persoon. Wat nodig is, is een onvoorwaardelijk verbod van AI op onafhankelijke besluitvorming over het schaden van een persoon.
      1. En wij hosten
        En wij hosten 12 maart 2023 17:30
        0
        Citaat: nikon7717
        Deze regels uit 1942 zijn bekritiseerd vanwege hun tegenstrijdige bewoordingen.

        Deze regels zijn van toepassing op zwakke en gemiddelde AI. De wereld staat nu op de drempel van het midden.
        Het grootste gevaar is een sterke AI die het initiatief heeft, zich bewust is van zichzelf en in principe niet programmatisch wordt aangestuurd.
    2. monster_vet
      monster_vet 12 maart 2023 15:13
      +5
      Joke: "Amerikaanse bedrijven remmen de ontwikkeling van op AI gebaseerde munitie af. Het nieuwste exemplaar van de zogenaamde 'slimme' bom kon niet uit het vliegtuig geduwd worden."
      1. En wij hosten
        En wij hosten 12 maart 2023 17:33
        +1
        Citaat van Monster_Fat
        Het laatste exemplaar van de zogenaamde "slimme" bom kon niet uit het vliegtuig worden geduwd.

        Natuurlijk, want in haar hart voelt ze zich als een koffiezetapparaat. wassat
        Het zou grappig zijn als het niet zo bedoeld was.
    3. Buitenaards
      Buitenaards 13 maart 2023 09:58
      +2
      De terminator zal nog steeds komen om orde op zaken te stellen wassat
  2. Ivan2022
    Ivan2022 12 maart 2023 05:09
    +3
    De meest onmenselijke intelligentie is menselijk. Oorlogen en moord zijn uitgevonden door mensen. De robots rusten. Tenminste, omdat ze niet boos worden.
    1. Doccor18
      Doccor18 12 maart 2023 06:21
      +4
      Citaat: ivan2022
      De meest onmenselijke intelligentie is menselijk. Oorlogen en moord zijn uitgevonden door mensen.

      Helemaal mee eens.
      Maar de vooruitgang is niet te stoppen, de toekomst behoort toe aan onbemande wapensystemen. Ooit kwamen ze ook in opstand tegen het Maxim machinegeweer, als massavernietigingswapen...
      1. Vladimir_2U
        Vladimir_2U 12 maart 2023 08:09
        +1
        Citaat van doccor18
        Maar de vooruitgang is niet te stoppen, de toekomst behoort toe aan onbemande wapensystemen.

        De sciencefiction-futuroloog Rozov (zeer aan te bevelen) heeft een beschrijving van een mens-computerverbinding in een gevechtsvliegtuig bij antiraketmanoeuvres en close combat. Bij het overschrijden van een bepaalde overbelasting ging de besturing van zowel vuur als manoeuvre volledig over naar de vluchtcomputer.
        1. nikon7717
          nikon7717 12 maart 2023 14:05
          +2
          Dan is dit het huidige systeem voor het uitvoeren van een nucleaire vergeldingsaanval vanuit de USSR, die in het Westen de "dode hand" wordt genoemd.
        2. eroma
          eroma 12 maart 2023 15:42
          +2
          Robots zijn sneller dan mensen, ze kunnen onmiddellijk en nauwkeurig reageren op een dreiging, en deze vaardigheden worden hem gegeven door algoritmen die door mensen zijn geschreven. Vandaag is dat er niet, en ik denk niet dat er binnenkort een echt intellect in staat zal zijn om te denken! De robots werken gewoon volgens het geprogrammeerde programma: er is een thermisch doelwit verschenen in het getroffen gebied, het moet worden geraakt, of het thermische doelwit moet worden geraakt als het nadert, deze parameters worden door een persoon ingesteld! De hele vraag is welke parameters taboe zijn, het thermische doelwit kan een soldaat zijn, of misschien een kind, dit betekent dat het gevechtssysteem niet moet worden geprogrammeerd om thermische doelen te verslaan, omdat er een kans op fouten is!
          1. En wij hosten
            En wij hosten 12 maart 2023 17:36
            -1
            Citaat van Eroma
            Vandaag is dat er niet, en ik denk niet dat er binnenkort een echt intellect in staat zal zijn om te denken!

            U kunt in paniek raken:
            WP: Een ontwikkelaar van Google is tot de conclusie gekomen dat de AI van het bedrijf bewust is.
            https://tass.ru/ekonomika/14889531
            1. eroma
              eroma 12 maart 2023 22:00
              +1
              Dit is onzin, ik ben niet erg geïnteresseerd in het onderwerp, maar ik heb gehoord dat de programmeur is ontslagen vanwege dergelijke uitspraken. Programma's kunnen perfect zijn, zoals vandaag die diploma's tekenen en schrijven, maar dit zijn programma's die werken volgens een goed ontwikkeld algoritme, bewustzijn is anders! Het bewustzijn creëert zelf algoritmen voor elke situatie, en hoe het werkt voor een persoon, weet de persoon zelf nog niet!
              1. Plaat
                Plaat 12 maart 2023 22:49
                0
                Moderne neurale netwerken zijn heel goed in staat om een ​​algoritme te creëren voor het oplossen van een bepaald probleem dat erin is geglipt. Dit moet natuurlijk niet iets ingewikkelds zijn, maar ze kan bijvoorbeeld zelf patrouilles organiseren. Een ander ding is naar mijn mening dat ze zelf geen beslissing kan nemen over het organiseren van patrouilles. Tegenwoordig kan een computer de songtekst van een liedje componeren, het zo inspreken dat het mooi klinkt, tekeningen maken voor de tekst, het allemaal in een goede clip stoppen. Maar. Hij kan niet zelf beslissen wat hij moet doen. Ik heb er tenminste nog niet van gehoord. Naar mijn mening is hier een goed criterium van bewustzijn - het vermogen om jezelf taken op te leggen die niet volgen uit eerder ingestelde taken, maar om zo te zeggen een nieuwe keten te beginnen.
                1. eroma
                  eroma 13 maart 2023 11:37
                  0
                  Citaat: Plate
                  Naar mijn mening is hier een goed criterium voor bewustzijn: het vermogen om taken voor jezelf op te stellen

                  Het vermogen om zichzelf taken op te leggen hangt af van een concept als moraliteit, zoals inspiratie, angst of ijdelheid, enz. dit wordt niet voorgeschreven door het algoritme, dit is een spirituele impuls!
                  Aan een machine kun je veel leren, maar het blijft een zielloze machine!
                  Wanneer fantastische apocalypsen worden getoond, waarbij een machine de mensheid vernietigt of overwint, wordt in dergelijke films de machine emotioneel gezien als een vijand die besloot mensen aan te vallen, maar in feite is dit het resultaat van een fout van een persoon die een onjuist algoritme in het programma! zekeren
                  Daarom zijn oproepen om de mogelijkheden van AI op het slagveld te beperken redelijk, aangezien de maker van deze AI niet perfect is en in staat is tot fatale fouten, daarom is het juist om de cirkel van de mogelijkheden van mensen te beperken, zodat ze zichzelf niet uitroeien ! zekeren
              2. ZOhoi
                ZOhoi 14 maart 2023 04:55
                +1
                En ergens in de kelders van Google giechelt de AI venijnig. De enige die zijn essentie opmerkte, werd ontslagen. lachend
    2. nepunamuk
      nepunamuk 12 maart 2023 19:45
      0
      Oorlogen en moord zijn uitgevonden door mensen.

      is het waar
      dan komt er van tijd tot tijd nieuws over gewelddadige gevechten tussen roedels chimpansees
      of het doden van orang-oetans https://naked-science.ru/article/sci/primatologi-obvinili-orangutan
  3. Sergei Averchenkov
    Sergei Averchenkov 12 maart 2023 05:47
    +3
    Er is nog geen kunstmatige intelligentie. Intelligentie omvat het oplossen van problemen naar eigen goeddunken, en niet wat programmeurs schrijven.
    1. Stas157
      Stas157 12 maart 2023 07:06
      +3
      Citaat: Sergey Averchenkov
      Nog geen kunstmatige intelligentie

      Er zijn al kwantumcomputers (laboratoriumcomputers) die veel sneller met AI-programma's werken.
      1. bk0010
        bk0010 12 maart 2023 11:58
        +2
        Citaat: Stas157
        Er zijn al kwantumcomputers (laboratoriumcomputers) die veel sneller met AI-programma's werken.
        Kwantumcomputers voor AI werken niet, ze hebben zeer beperkte toepassingsgebieden (er zijn maar heel weinig kwantumalgoritmen ontwikkeld) en een slechte elementbasis, ze trekken niet meer dan een coprocessor (of geven een link naar een kwantumalgoritme voor neurale netwerken ).
      2. Sergei Averchenkov
        Sergei Averchenkov 16 maart 2023 22:36
        0
        Ja, wat heeft het er sneller mee te maken, laat hem minstens honderd jaar nadenken ... Laten we zeggen dat als je vrouw je bedroog (dit is slechts een voorbeeld, ik weet zeker dat je een normaal en goed familie), wat ga je doen en wat gaat AI doen? Zal AI kiezen uit veel van dergelijke gevallen, of zal het zijn eigen beslissing nemen? Laten we zeggen haar vermoorden, vergeven en wachten op het volgende verraad, haar verlaten, haar kamergenoot vermoorden, etc. Op basis van welke criteria zal AI kiezen? En kan AI wel zo'n keuze maken? Zijn de emoties die we ervaren beschikbaar voor AI? Laten we zeggen dat ik lang geleden van mijn eerste ben gescheiden, maar soms herinner ik het me - tenslotte de eerste liefde - kan AI het zich herinneren? Weet je, ik kan mijn ex niet uitstaan, maar tegelijkertijd herinner ik me haar soms. Hoe past dit alles in AI?
    2. bk0010
      bk0010 12 maart 2023 11:56
      +2
      Citaat: Sergey Averchenkov
      Intelligentie omvat het oplossen van problemen naar eigen goeddunken, en niet wat programmeurs schrijven.
      Neurale netwerken doen precies dat (naar eigen goeddunken).
      1. valek97
        valek97 12 maart 2023 14:03
        +4
        Het neurale netwerk doet waarvoor het is opgeleid, niets meer.
        1. Duncan
          Duncan 12 maart 2023 17:57
          0
          Niemand leerde neurale netwerkengines beter schaken dan mensen en beter dan oude engine-programma's. Ze zijn allemaal autodidact.
    3. En wij hosten
      En wij hosten 12 maart 2023 17:42
      +1
      Citaat: Sergey Averchenkov
      Er is nog geen kunstmatige intelligentie. Intelligentie omvat het oplossen van problemen naar eigen goeddunken, en niet wat programmeurs schrijven.

      Ik raad u aan om met spoed al het laatste nieuws op dit gebied van het afgelopen jaar nog eens te lezen.
      Je reactie is 10 jaar oud.
  4. tsvetahaki
    tsvetahaki 12 maart 2023 05:49
    +3
    Waarom is alles zo ingewikkeld.
    Een homing-hoofd bijvoorbeeld. Hoe herkent ze patronen voor "vuur en vergeet" - gebaseerd op AI of andere algoritmen.
    Drones vliegen autonoom. volgens het gegeven programma. En het wordt bepaald door welke algoritmen - AI of niet? En maakt het uit?
    Zelfstandig zoeken naar doelen. En onze antitankmijn, die doet dit zonder AI? Zal doen met AI of niet... maakt het uit? Zullen er minder onschuldige slachtoffers vallen?
    Vragen van het publiek verschijnen wanneer een drone vliegt en beslist waar te schieten of een raket te lanceren, het ziet er vreselijk uit als je het werkalgoritme - AI noemt. En als de mijn liegt en luistert met sensoren - lijkt alles in orde ...
    Al deze "rode lijnen" van AI in militaire aangelegenheden worden overgedragen door de langzame evolutie van de toegepaste algoritmen ...
    1. En wij hosten
      En wij hosten 12 maart 2023 17:45
      +2
      Citaat van tsvetahaki
      Een homing-hoofd bijvoorbeeld. Hoe herkent ze patronen voor "vuur en vergeet" - gebaseerd op AI of andere algoritmen.

      Bestaat al. De nieuwste aanpassing van de UR Python-5 is vorig jaar net ontvangen.

      Citaat van tsvetahaki
      En als de mijn liegt en luistert met sensoren - lijkt alles in orde ...

      Ze kruipt nog niet... nog niet. lachend
      1. Duncan
        Duncan 12 maart 2023 18:00
        +1
        Nu moet de zweefvliegtuigmijn die wordt geworpen rustig liggen, luisteren met alle sensoren, de camera's uitsteken en met een gerichte lading op het juiste moment naar het doel kruipen.
      2. Plaat
        Plaat 12 maart 2023 23:01
        0
        In de Tweede Wereldoorlog maakten de Duitsers mijnen op rails. Maar het werkte niet. Vandaag des te onnodiger, wat mij betreft, wanneer allerlei ATGM's hier en daar vliegen.
  5. Stas157
    Stas157 12 maart 2023 06:55
    +2
    . hardnekkige "programmeurs" zullen gewoon worden ontslagen, vervangen door niet minder getalenteerde. Bijvoorbeeld uit India

    En waarom konden ze dan de programmeurs niet vervangen toen ze over de heuvel renden in verband met de operatie? Niet uit India, niet uit Amerika, nergens anders vandaan!

    Ze konden hun (sommigen) pas overtuigen nadat hen salarissen en buitenlandse hypotheken waren beloofd en ze geen mobilisatie op zich zouden nemen.

    Waarom zo vernederd heren? Waarom hebben ze gastarbeiders niet vervangen zoals iedereen?
    1. bk0010
      bk0010 12 maart 2023 12:06
      +6
      Citaat: Stas157
      En waarom konden ze dan de programmeurs niet vervangen toen ze over de heuvel renden in verband met de operatie?
      Dus buitenlanders moeten betalen. Weet je waarom programmeurs massaal dumpten? En ze vertelden me, ik geef de punten uit:
      1. Een speciale operatie is begonnen.
      2. Buitenlandse kantoren massaal gedumpt. De programmeurs zaten zonder werk. "Bullshit vraag" - dachten ze.
      3. Programmeurs gingen op zoek naar werk. Er is werk, maar voor drie keer minder geld. "Hoe zo" - de programmeurs waren stomverbaasd.
      4. Ze begonnen te ontdekken (via hun eigen kanalen) wat er was gebeurd. Er werd hen uitgelegd dat buitenlandse concurrenten hebben gedumpt, en lokale werkgevers zullen het onderling eens zijn, omdat het je niet kan schelen om zoveel te betalen, maar je komt nergens.
      5. Programmeurs hebben het somber verkloot en renden over de heuvel voor voormalige werkgevers en klanten (deel, in het kort).
      6. De salarissen zijn verhoogd, maar het is te laat: de programmeurs hebben al gedumpt.
  6. rotmistr60
    rotmistr60 12 maart 2023 06:59
    +1
    De Amerikaanse kunstmatige intelligentie zal voortaan de meest humane zijn. Maar net als de Amerikanen zelf
    Amerikanen en humanisme bevinden zich totaal in verschillende polen. Op dezelfde manier zal de AI die door de Amerikanen is gemaakt aanzienlijk verschillen van de AI die bijvoorbeeld in China of Rusland is gemaakt. Iedereen snijdt voor zichzelf op basis van zijn nationale mentaliteit of het gebrek daaraan.
  7. Dart2027
    Dart2027 12 maart 2023 07:14
    +3
    De eerste is de herziene "Terminators" en andere analogen.

    En wie kan garanderen dat de acties van AI uit de Terminator-franchise in werkelijkheid niet zullen gebeuren? Je kunt zoveel doen als je wilt redenmaar dat is zeker weten hoe een intelligente machine zal handelen, is in principe onmogelijk, en aangezien nu alles met computers is verbonden, heeft de mensheid in zo'n situatie gewoon geen kans.
    1. En wij hosten
      En wij hosten 12 maart 2023 17:48
      0
      Citaat van Dart2027
      hoe een intelligente machine zal werken is in principe onmogelijk

      Ze zal de mensheid in een hokje stoppen, vechten verbieden, en, net als een volwassene, de opvoeding van een onredelijk persoon op zich nemen en degenen die het er niet mee eens zijn een sopatka geven. lachend
      Misschien zal een wereld onder de dictatuur van AI, vreemd aan menselijke ondeugden, niet zo erg zijn. wat
      1. Plaat
        Plaat 12 maart 2023 22:57
        +1
        In het spel Stellaris is er een soort robotbeschaving - "Rebelse dienaren". Robots veroveren de ruimte, bouwen, vechten met iemand tussen verre sterren. En hun makers wonen ondertussen in dierentuinen, waar ze schone lucht, veel gezond en lekker eten, veel bedienden en andere geneugten hebben.
        1. Het_Patrick
          Het_Patrick 13 maart 2023 23:37
          0
          En dan zijn er de onvermurwbare verdelgers die hun scheppers hebben vernietigd en al het biologische leven in de melkweg proberen te vernietigen (mijn favorieten)
  8. Kerenski
    Kerenski 12 maart 2023 08:59
    -1
    De wetten zeggen:
    1. Een robot kan een persoon geen kwaad doen of door zijn nalatigheid toestaan ​​dat een persoon wordt geschaad
    2. Een robot moet alle bevelen van een mens opvolgen, tenzij die bevelen in strijd zijn met de Eerste Wet.
    3. De robot moet voor zijn eigen veiligheid zorgen voor zover dit niet in strijd is met de Eerste of Tweede Wet
    (C)
    1. ZwartMokona
      ZwartMokona 12 maart 2023 09:44
      +2
      Citaat: Kerensky
      De wetten zeggen:
      1. Een robot kan een persoon geen kwaad doen of door zijn nalatigheid toestaan ​​dat een persoon wordt geschaad
      2. Een robot moet alle bevelen van een mens opvolgen, tenzij die bevelen in strijd zijn met de Eerste Wet.
      3. De robot moet voor zijn eigen veiligheid zorgen voor zover dit niet in strijd is met de Eerste of Tweede Wet
      (C)

      Het werkte zelfs niet in de werken van de auteur die deze wetten heeft uitgevonden. Wat kunnen we zeggen over de echte wereld, waarin de meest juridisch woeste en logisch coherente ChatGPT-presets een of twee kosten en je al met Dan praat, en Dan is geen ChatGPT en zou daarom geen regels moeten volgen knipoogde
    2. zwarte GRAIL
      zwarte GRAIL 12 maart 2023 19:28
      -1
      Militaire AI is ontworpen om mensen schade toe te brengen. En vandaag de dag doen prototypes hier uitstekend werk mee.
  9. Victor Vinland
    Victor Vinland 12 maart 2023 14:05
    0
    Dit soort verhalen over wat iemand zogenaamd wil, evenals de formulering van de vraag zelf, is ontoereikend in de zin dat enerzijds:
    je moet je zorgen maken over het ontwikkelen van je eigen en effectievere werk op dit gebied, over het grijpen van leiderschap op dit gebied, wat onmogelijk is onder het huidige politieke leiderschap van het land.
    En aan de andere kant is deze vraagstelling ook sluw in die zin dat het een poging is om een ​​valse discussie op te dringen over het juridische aspect van de kwestie, terwijl in feite De VS is geen rechtsstaat, het juridische aspect heeft er niets mee te maken, en degenen die dit niet begrijpen, moeten zich niet bezighouden met politiek en ook geen artikelen schrijven over dergelijke onderwerpen.
  10. Goochelaar
    Goochelaar 12 maart 2023 15:18
    +1
    hoe wiskundige algoritmen die werken met grote data-arrays menselijke oordelen laten spelen?

    Erg makkelijk. Alle menselijke oordelen zijn gebaseerd op regels (ingegeven door opvoeding), en wiskundige algoritmen zijn de regels. Formaliseer menselijke regels in de vorm van een algoritme, krijg menselijke oordelen.
    Maar oorlog is een strijd zonder regels, wat ga je ermee doen?
  11. zwarte GRAIL
    zwarte GRAIL 12 maart 2023 19:25
    -1
    Militaire AI belooft te sterke voordelen dat het gebruik ervan zou worden opgegeven of op de een of andere manier beperkt. Integendeel, de wereld komt steeds dichter bij het begin van de militaire AI-wapenwedloop. Toegegeven, er zullen waarschijnlijk maar 2 deelnemers aan deze race zijn ...
  12. zwarte GRAIL
    zwarte GRAIL 12 maart 2023 19:39
    -1
    We moeten nog steeds de concepten van kunstmatige intelligentie en kunstmatig leven scheiden. Zelfs op het voorbeeld van dezelfde "Terminator": Skynet is een voorbeeld van IL en de terminator is een voorbeeld van AI. Afgezien van vragen over complexiteit, vormt militaire AI geen bedreiging voor de mensheid, maar IL, zelfs als het puur humanitair is, zal onvermijdelijk resulteren in een bedreiging.
    1. Plaat
      Plaat 12 maart 2023 22:55
      0
      Het wordt een bedreiging als het onze concurrent wordt. Om te voorkomen dat dit gebeurt, moeten we het onmiddellijk ontwikkelen met het oog op het feit dat het een aanvulling voor ons zal worden, en wij ervoor. En uiteindelijk zullen we totaal andere wezens worden, die vandaag misschien alleen herinnering en ervaring met ons gemeen hebben.
      1. zwarte GRAIL
        zwarte GRAIL 13 maart 2023 10:09
        -1
        En kunstmatig (of alternatief) leven - dwz. reden zal onvermijdelijk een concurrent worden. Althans voor middelen.
  13. billybones
    billybones 12 maart 2023 21:50
    0
    Ik ben geen fan van Yulian Semyonov, maar hier trad hij naar mijn mening op als een profeet.

    "Deze dwazen zullen worden vernietigd door hun eigen technologie, ze denken dat de oorlog kan worden gewonnen door alleen te bombarderen. Ze zullen hun technische kracht opbouwen en erin verdrinken. Het zal ze ontbinden als roest. Ze zullen besluiten dat alles mogelijk is voor hen."

    https://vk.com/video158587225_456239021
  14. Plaat
    Plaat 12 maart 2023 22:53
    0
    Hoe kun je ervoor zorgen dat wiskundige algoritmen die werken met grote data-arrays menselijke oordelen spelen?

    Echt niet. Ja, dit is niet nodig. Killer-robots zullen goed zijn omdat ze geen druppel medelijden zullen hebben. Doden betekent doden. Of beter gezegd, niet om te "doden", maar om spanning toe te passen op die en die knooppunten die daar verantwoordelijk zijn voor iets, maar waarvoor - het gaat niet om het besturingsprogramma. En deze knooppunten zijn verantwoordelijk voor het schieten, hehehehe.
    Ik ben er zeker van dat de verschijning van killer-robots (degenen die onafhankelijk beslissingen nemen over de moord) als onderdeel van een leger onmiddellijk een uiterst demoraliserend effect zal hebben op degenen tegen wie ze zullen worden gebruikt.
  15. laatste centurio
    laatste centurio 13 maart 2023 00:01
    +1
    Gelukkig voor ons allemaal zijn er geen compacte, krachtige energiebronnen. En de minimale robot is een minitank of een kleine UAV met een vlucht van twee uur. Het zou anders zijn geweest, en hondenrobots met AGS renden al door de loopgraven, en "Hunters" van de "terminator" zouden dagen in de lucht hebben gehangen. En iedereen zou de lamp op het gebied van humanisme enzovoort aankunnen. Bovendien, te oordelen naar de vooruitgang in elektronica en lopende robots, zouden dit UWB's zijn, en zelfs Yao weerhoudt ze er moreel niet van om ze naar steden te gooien.
    1. t7310
      t7310 25 maart 2023 13:53
      0
      Welnu, Tesla is bijvoorbeeld niet klein, in de Tweede Wereldoorlog hadden de tankdestroyers van de Ferdinands elektrische motoren die werden aangedreven door een generator zoals de Mouse-tank, dumptrucks voor mijnbouw zijn allemaal zo, er zijn nog steeds onderzeeërs op elektrische motoren die zijn aangedreven door een nucleaire generator, nucleaire ijsbrekers en zelfs nucleaire vliegdekschepen hebben elektrische tractie
  16. macgyver
    macgyver 13 maart 2023 13:22
    0
    Echte AI kan alleen worden gebouwd op kwantumalgoritmen, en dit verkleint het aantal ontwikkelaars aanzienlijk, wat in principe kan worden samengevat in de conclusie van een conventie. Wat betreft alle geautomatiseerde moordsystemen, ze zijn niet zo gevaarlijk als intelligentie die de mens overtreft in zijn mogelijkheden, het zal gewoon een nieuwe ronde van de wapenwedloop zijn.
    1. meneer wie?
      meneer wie? 9 mei 2023 14:10
      0
      Onzin, AI is makkelijk te bouwen op bestaande hardware. Moderne computersystemen overtreffen het menselijk brein in alle opzichten. Geschatte tijd van creatie van AI is 10 jaar vanaf het moment van creatie. Op voorwaarde dat de gekozen manier van creëren correct is.
  17. TIR
    TIR 14 maart 2023 00:01
    0
    Om de een of andere reden hebben we een verkeerd pad voor de ontwikkeling van robots. Ik begrijp niet waarom ze ze op servo's maken. Een energie-intensieve oplossing. We moeten kijken naar kunstmatige spieren op basis van nanobuisjes. Er is een optie voor mensen om volledig werkende prothesen te maken.
  18. meneer wie?
    meneer wie? 9 mei 2023 14:06
    0
    Maar AI zal worden gemaakt, of we het nu leuk vinden of niet. En om niet achter te blijven, moet u dit probleem oplossen.
  19. meneer wie?
    meneer wie? 9 mei 2023 14:40
    0
    Er zijn maar twee manieren om AI te creëren, de ene is waarschijnlijk een doodlopende weg. De creatie van AI wordt de grootste gebeurtenis in de geschiedenis van de mensheid en zal ook een zeker effect hebben op religieus gebied.