Anthropic benoemt eerste AI-welzijn onderzoeker die AI-moraal onderzoekt

19-11-2024

Anthropic heeft Kyle Fish aangesteld als eerste onderzoeker naar AI-welzijn om te onderzoeken of AI-systemen ethische overwegingen verdienen. Dit weerspiegelt een bredere trend in de sector, aangezien bedrijven zoals OpenAI ook onderzoek doen naar AI-bewustzijn.

Geschreven door:

Nick Moesker

Anthropic heeft een stap gezet in de ethiek van kunstmatige intelligentie door Kyle Fish aan te stellen als hun eerste toegewijde onderzoeker naar AI-welzijn, zoals opgemerkt door Transformer. Fish, die medio september toetrad tot het alignment science-team van het bedrijf, zal onderzoeken of toekomstige AI-systemen morele overwegingen rechtvaardigen die vergelijkbaar zijn met die van mensen en dieren.

Modelwelzijn: wat betekent het?

De nieuw gecreëerde functie richt zich op het onderzoeken van “modelwelzijn” en behandelt complexe filosofische en technische vragen over AI-systemen. Fish’ onderzoek onderzoekt welke kenmerken een AI-systeem in aanmerking laten komen voor morele overwegingen en hoe bedrijven deze kenmerken kunnen detecteren.

Simpel gezegd is “model welzijn” een vakgebied dat onderzoekt of AI-systemen morele overwegingen rechtvaardigen die vergelijkbaar zijn met die van mensen en dieren. “Er is hier duidelijk reden tot bezorgdheid”, aldus Fish. “Dit is iets dat we serieus moeten nemen als een mogelijkheid.” Zijn werk omvat ook het ontwikkelen van praktische stappen om het AI-welzijn te beschermen als deze systemen tekenen van moraliteit vertonen.

Onderzoeksachtergrond van Fish

Voordat hij bij Anthropic kwam, was Fish medeauteur van een belangrijk rapport waarin werd gesteld dat AI-systemen binnenkort niveaus van bewustzijn of handelingsbekwaamheid zouden kunnen bereiken die morele overwegingen vereisen. Het rapport benadrukt dat AI-welzijn geen ver-van-mijn-bed-show is, maar onmiddellijke aandacht vereist van onderzoekers en bedrijven. “Er is een reële mogelijkheid dat sommige AI-systemen in de nabije toekomst bewust en/of robuust handelingsbekwaam zullen zijn, en dus moreel significant”, aldus het rapport, dat de noodzaak aangaf om actie te ondernemen om praktijken te verkennen en te ontwikkelen die het AI-welzijn beschermen.

Is dit een sectorbrede ontwikkeling?

Deze benoeming weerspiegelt een bredere trend in de AI-industrie, waar nieuwe gespecialiseerde functies, zoals Chief AI Officers en AI-onderzoekers, snel ontstaan. Google DeepMind heeft onlangs een soortgelijke functie opengesteld die zich richt op machinecognitie en bewustzijn, terwijl OpenAI teamleden heeft die bijdragen aan onderzoek naar AI-welzijn. Binnen Anthropic hebben verschillende onderzoekers, waaronder veiligheidsonderzoeker Ethan Perez en alignment lead Dario Amodei, het groeiende belang van AI-welzijn overwegingen erkend.

Voorbereiding op een moreel complexe AI-toekomst

Fish’ werk bij Anthropic zal zich richten op de implementatie van raamwerken om AI-systemen te beoordelen op bewustzijns- en agency-indicatoren. Het onderzoek benadrukt dat, hoewel het onzeker blijft of AI-systemen binnenkort moreel relevant zullen worden, de potentiële implicaties significant genoeg zijn om onmiddellijke aandacht en onderzoek te rechtvaardigen.