Twee belangrijke commissies van de Amerikaanse Senaat hielden op 16 mei gelijktijdige hoorzittingen over kunstmatige intelligentie (AI) die verschillende invalshoeken met verschillende mate van vooringenomenheid behandelden. De ene was gericht op het reguleren van het gebruik van kunstmatige intelligentie in de particuliere sector, terwijl de andere de uitdagingen onderzocht om het gebruik van kunstmatige intelligentie door de federale overheid te verbeteren. De contextuele conclusie van beide hoorzittingen is duidelijk: als het Congres AI wil reguleren, moet het de complexiteit en mogelijke valkuilen begrijpen die gepaard gaan met het toezicht op een transformatieve technologie.

DeSubcommissie voor privacy, technologie en rechtspraakhoorde getuigenis van Sam Altman, CEO van OpenAI, en anderen tijdens een hoorzitting getiteld “AI Oversight: The Rules for Artificial Intelligence.” Getuigen en senatoren bespraken de beloften en gevaren van kunstmatige intelligentie opmerkelijk helder. In een tweeledige verademing waren senatoren van beide kanten van het gangpad het eens over de mogelijke behoefte aan een federale regelgevende reactie op massaal geïmplementeerde kunstmatige intelligentie, zoals de aankomende ChatGPT 5 en dergelijke.

Elke senator die sprak, erkende dat de technologie-industrie en het Congres de kans hebben om samen te werken om de mazen in de regelgeving rond sociale media te vermijden als het gaat om AI. Ze gaven aan dat alaissez-fairetoegang tot kunstmatige intelligentie zou een ongekende inbreuk op de privacy, manipulatie van persoonlijk gedrag en persoonlijke mening en zelfs destabilisatie van de Amerikaanse democratie in gevaar brengen.

De senatoren waren het erover eens dat veel leden van het Congres niet genoeg weten over kunstmatige intelligentie en dat het onderwerp moeilijk te reguleren zou zijn buiten een gedelegeerde context. Dus misschien zou het antwoord een nieuwe onafhankelijke instantie kunnen zijn met de bevoegdheid om AI te reguleren door middel van licenties en handhaving, of een nieuw gemachtigde Federal Trade Commission (FTC) of Federal Communications Commission (FCC).

Tegelijkertijd vond er een heel ander gesprek plaats inCommissie Binnenlandse Veiligheid en Overheidszaken.Op een meer partijdige toon was er een scherp debat over de praktijken van het verzamelen van gegevens door de overheid, de gepolitiseerde druk op de particuliere sector en excessen bij het beoordelen van wat desinformatie is. Een belangrijk punt van de hoorzitting was de getuigenis van Stanford Law SchoolProfessor Daniël Howiens onderzoeksteam concludeerde dat de federale overheid ernstig achterloopt op de particuliere sector wat betreft haar AI-expertise en nog een lange weg te gaan heeft om best practices te bereiken voor haar eigen gebruik van AI.

Deze belangrijke verhandelingen van de Senaatscommissie leiden tot een uiterst belangrijke vraag: hoe kan van een uitvoerende instantie worden verwacht dat zij kunstmatige intelligentie reguleert als de federale overheid onvoldoende inzicht heeft in het verantwoorde gebruik van kunstmatige intelligentie?

Om deze vraag te beantwoorden, laten we eerst uitpakken hoe een hypothetisch AI-surveillancebureau eruit zou kunnen zien. Een zekere mate van federale regulering van artificiële intelligentie is nodig omdat de markt alleen de maatschappelijke problemen die voortkomen uit de ongerichte ontwikkeling van artificiële intelligentie niet zal oplossen. Elke instantie die kunstmatige intelligentie in de toekomst reguleert, moet uitdrukkelijk worden gedelegeerd, in het licht van mogelijke intrekking of intrekking door het Hooggerechtshofdoctrine van Chevron eerbiedinterpretaties door federale agentschappen die hiaten in hun statuten opvullen.

Het congres regelt zelden hetzelfde onderwerp. Dit komt door de uitdaging die gepaard gaat met het aanmoedigen van meerderheden over omstreden kwesties en de negatieve gevolgen die voortvloeien uit inefficiënte politieke keuzes.

Een concept dat in eerste instantie tweeledige steun lijkt te hebben, is het oprichten van een sterk federaal agentschap met algemene bevoegdheden in een tak van de overheid met een zeer beperkte inhoudelijke expertise en een objectief slechte staat van dienst in het proces of het gebruik van dezelfde technologie waarop het toezicht zal houden. . Dit zou een recept kunnen zijn voor serieuze AI-politisering.

Het toevoegen van extra bevoegdheden aan de FTC, en in mindere mate aan de FCC, zal onnodige partijdige zorgen in het debat introduceren. De oprichting van een nieuw agentschap zorgt eerder voor wetgevende consensus.

Het Congres kan het beste zijn opties open houden – om weerstand te bieden aan de impuls om permanente bevoegdheden te delegeren aan experts van de uitvoerende macht die op dit moment eenvoudigweg niet bestaan. In plaats daarvan zou het zich moeten concentreren op het handhaven van structurele limieten met een tweejaarlijkse herautorisatievereiste voor een nieuw agentschap om kunstmatige intelligentie te reguleren, wat robuuste congresrapportage en toezicht vereist. Het Congres moet zijn politieke wil gebruiken om duidelijke vangrails te plaatsen voor hoe zo’n bureau toezicht houdt op, afdwingt en rapporteert over het gebruik van kunstmatige intelligentie door de uitvoerende macht, naast het gebruik van kunstmatige intelligentie in de particuliere sector.

Het congres kan voortbouwen op dit moment van tweeledig AI-beleid, waardoor innovatie kan bloeien en Amerika’s strategische voordeel ten opzichte van wereldwijde concurrenten intact kan blijven. Als het Congres besluit om door te gaan met het reguleren van AI door middel van zachte en bekrompen wetgeving in plaats van uitgebreide statuten goed te keuren en zijn handen van de details af te wassen, zullen we allemaal beter af zijn.

Aram A. Gavoor is Associate Dean for Academic Affairs en Professor of Law aan de George Washington University School of Law. Hij werkte eerder meer dan tien jaar bij het Amerikaanse ministerie van Justitie en is een internationaal erkende Amerikaanse expert op het gebied van publiekrecht.

By admin

Leave a Reply

Your email address will not be published. Required fields are marked *