Stel je voor dat je een magische doos hebt. Als u op dit vakje klikt, wordt er onmiddellijk een werkproduct voor u gemaakt dat alles behalve de meest getalenteerde van uw collega’s overtreft in kwaliteit. Zou je erop drukken? Hoe vaak? Stel je nu voor dat iedereen deze magische doos heeft. Welke prikkels zou dat creëren? Hoe zouden deze prikkels de toekomst van de mensheid bepalen?
Dit zijn kritische vragen die ChatGPT en anderen generatieve kunstmatige intelligentie (KI) – neurale netwerken in staat zijn om op maat gemaakte werkproducten te genereren als antwoord op vragen – vereist dat we op korte termijn reageren. Momenteel creëert generatieve kunstmatige intelligentie overtuigend college-essays, computer code En kunst. Hij heeft al gewonnen internationale fotowedstrijdvoerde een hitsingle en scoorde de beste cijfers in de toelatingsexamens voor graduate studies.
En dat is het verbetert snel. Ook het generatieve gebruik van kunstmatige intelligentie zit in de lift moeilijker te detecterenmet zijn dramatische evolutie slimme gebruikersinstructies het verwijderen van de nuances waardoor mensen en programma’s de implementatie ervan kunnen identificeren.
Hoewel massale acceptatie van generatieve kunstmatige intelligentie veelbelovend is, maken velen zich terecht zorgen over de risico’s. Deskundigen zijn al aan het overleggen het belangrijkste Gevaar van menselijk uitsterven. Anderen merkten op dat AI ca 25 procent van de banen in de VS en de EU (met andere banen die in het proces ontstaan).
Toch is er een gevaarlijker risico voor onze soort dat ons nog steeds zorgen moet baren, zelfs als kunstmatige intelligentie goedaardig onze belangen behartigt: wat gebeurt er met de mensheid als opeenvolgende generaties gewoon leren om de “magische doos” van kunstmatige intelligentie in te drukken en daarom volledig incompetent zijn zonder zijn hulp?
Zelfs de meest briljante geesten hebben domeinbeheersing en een diep begrip van het onderwerp nodig aanzienlijke tijd En poging. Hoewel dit stressvolle proces uiteindelijk lonend is, riskeert het te mislukken en kost het vaak tijd duizenden uren. Voor het eerst in de geschiedenis kan een hele generatie dit proces overslaan en toch (althans voor een tijdje) gedijen op school en op het werk. Ze kunnen een magische doos raken en plotseling een werkend product hebben dat kan concurreren met de besten in hun cohort. Het is een verleidelijke deal, vooral omdat hun collega’s waarschijnlijk AI zullen gebruiken, zelfs als ze dat niet doen.
Zoals de meeste aanbiedingen van Faust, heeft de afhankelijkheid van generatieve AI echter een verborgen prijs. Elke keer dat je de box raakt, leer je niet echt – althans niet op een manier die je veel voordeel oplevert. U ontwikkelt het neurale netwerk van kunstmatige intelligentie, niet uw eigen netwerk.
Na verloop van tijd neemt uw incompetentie toe naarmate u vordert in uw carrière. Weinigen zouden pleiten dat hele generaties hun leven doorbrengen in krachtige robotachtige exoskeletten. Hoewel we aan de buitenkant sterker zouden zijn, begrijpen we allemaal intuïtief dat deze stap zou leiden tot lichamelijk gehandicapte mensen die niet zonder de machine zouden kunnen leven. Net als een cognitief exoskelet, berooft het vertrouwen op kunstmatige intelligentie, vooral tijdens kritieke periodes van persoonlijke en professionele ontwikkeling, individuen van mentale vitaliteit en mogelijkheden om echt te leren. We worden slaven van onze eigen creatie, niet in staat om zinvol te denken zonder zijn hulp.
Voorstanders van kunstmatige intelligentie beweren dat de komst ervan simpelweg de aard van leren verandert, in plaats van mensen van meesterschap te beroven. In eerste instantie is dit uitzicht aantrekkelijk. Mensen bleven cognitieve hulpmiddelen ontwikkelen – geletterdheid, de drukpers, internet – die de samenleving ontwrichtten maar uiteindelijk de gebruiker ten goede kwamen. AI is anders. In tegenstelling tot boeken en websites helpt AI u niet alleen informatie te vinden en te leren. Het doet het werk voor u. Het lezen van een boek resulteert niet in een essay dat op je bureau verschijnt. Het gebruik van een krachtige camera creëert niet meteen een beeld dat je je kunt voorstellen. Generatieve AI doet precies dat. Het is het equivalent van naar de sportschool gaan, iemand anders gewichten voor je laten heffen en verwachten dat je fit wordt. Het is zowel absurd als uiteindelijk een pleidooi voor het ongebreidelde gebruik van kunstmatige intelligentie onder nieuwe studenten.
Het opvoeden van nieuwe generaties die afhankelijk zijn van AI voor werk en kritisch denken, creëert een aantal fundamentele kwetsbaarheden. Wie het AI-platform bestuurt (inclusief de AI zelf), zou de mensheid effectief beheersen.
Het verhoogt ook de cyberrisico’s. Wat gebeurt er als een arts alleen met behulp van kunstmatige intelligentie kan opereren en geen toegang heeft tot internet of alleen toegang heeft tot gecompromitteerde kunstmatige intelligentie?
We moeten ook de geestelijke gezondheidsrisico’s onderzoeken voordat we intrinsiek gehecht raken aan AI. Jongere generatie ze zijn al geneigd bedrieger syndroom en als gevolg daarvan zijn depressie en zelfmoord toegenomen. Stel je een wereld voor waarin dit syndroom niet alleen over generaties heen wordt gevoeld, maar volledig geldig is.
Er zijn ook grotere implicaties voor innovatie. Generatieve kunstmatige intelligentie kan alleen inhoud produceren op basis van al bestaand mensenwerk. Is de volgende fundamentele verandering in de fysica iets dat AI kan afleiden uit deze hoeveelheid kennis, of vereist het een intuïtieve sprong van een briljante menselijke geest? Hoewel we het antwoord op deze vraag niet weten, moeten we ervoor zorgen dat de Einstein van deze eeuw het vermogen heeft om diep na te denken over fundamentele waarheden.
Voor alle duidelijkheid: deze risico’s betekenen niet dat we AI moeten opgeven. Dit is zowel fout als – omdat Moloch probleem – praktisch onmogelijk. In plaats daarvan moeten we menselijke prikkels opnieuw afstemmen om ervoor te zorgen dat onze ontwikkeling van kunstmatige intelligentie de longitudinale ontwikkeling van menselijke intelligentie niet belemmert. Experts op het gebied van kunstmatige intelligentie maken zich terecht zorgen over de afstemming van AI, waarbij slecht begrepen prikkels ertoe kunnen leiden dat AI de mensheid schaadt. Zelfs als we erin slagen kunstmatige intelligentie op elkaar af te stemmen, zal het falen om tegelijkertijd menselijke prikkels op elkaar af te stemmen, nog steeds resulteren in een donkere en onwetende toekomst.
De gevolgen van ons mislukking zet deze stap waarschijnlijk met algoritmen voor sociale media ons eerste contact met krachtige kunstmatige intelligentie – is een kleine demonstratie van de risico’s waarmee we momenteel worden geconfronteerd. We moeten er dus voor zorgen dat we de menselijke afstemming met AI op de juiste manier aanmoedigen, zodat we het gebruiken op een manier die de soort ten goede komt.
Het behouden van menselijk kritisch denken vereist verschillende stappen. Dit is de eerste: implementatie van alle AI-platforms vereisen digitale watermerken die garantie identificatie van generatief werk geproduceerd door kunstmatige intelligentie.
Terwijl OpenAI een smart aankondigde watermerk systeem, is vrijwillige acceptatie in de branche niet genoeg. Bij gebrek aan overheidseisen zal de markt een of meer bedrijven aanmoedigen om watermerkvrije diensten aan te bieden. Universele acceptatie van digitale watermerken zou scholen en werkgevers in staat stellen het werk van kunstmatige intelligentie te erkennen. Dit zou op zijn beurt het gebruik van kunstmatige intelligentie als uitgangspunt of “helper” aanmoedigen, in plaats van als vervanging voor kritisch denken.
Digitale watermerken zouden de mensheid hierbij ook helpen de wapenwedloop tegen AI-desinformatie en kon zelfs dekmantels identificeren ongebreidelde AI gedrag. Het is een eenvoudige en verstandige procedure die zelfs de meest fervente voorstanders van kunstmatige intelligentie gemakkelijk zouden moeten omarmen.
We noemden onszelf Homo sapiens, “wijze mensen”. We bevinden ons op een moment dat we moeten bewijzen dat we deze titel waardig zijn. Als we de prikkels voor een verantwoord gebruik van de magische doos van kunstmatige intelligentie niet afstemmen, bewijzen we niet alleen onze eigen onwetendheid, maar veroordelen we onze kinderen tot een lot waarin ze alleen incompetentie kennen. We moeten kritisch nadenken over deze kwestie en nu resoluut handelen voordat we voor altijd van dat vermogen beroven door op onze eigen uitvinding te vertrouwen.
Matt Cronin was meest recentelijk de oprichter en directeur van de National Cybersecurity Division in het White House Office van de National Cybersecurity Director. In die rol pakte Cronin cyberdreigingen voor de nationale veiligheid aan en ontwikkelde hij een strategisch cyberbeleid voor de natie. Hij kwam bij ONCD op gedetailleerde opdracht voor het Amerikaanse ministerie van Justitie, waar hij fungeert als coördinator voor nationale veiligheid en cybercriminaliteit. Cronin is ook een Fulbright Scholar die onderzoek doet naar de politieke implicaties van kunstmatige intelligentie en andere opkomende technologieën.
Alle verklaringen in dit artikel geven zijn eigen opvattingen en meningen weer en zijn niet noodzakelijkerwijs de opvattingen of meningen van de Verenigde Staten van Amerika, het Witte Huis of het Amerikaanse ministerie van Justitie.
Copyright 2023 Nexstar Media Inc. Alle rechten voorbehouden. Dit materiaal mag niet worden gepubliceerd, uitgezonden, gekopieerd of herverdeeld.