26 september 2023

Anthropic AI: Wat zijn en doen Anthropic en Claude precies?

4 minuten lezen
Anthropic AI

Als je het nieuws volgt rondom de ontwikkelingen op het gebied van kunstmatige intelligentie heb je waarschijnlijk niet gemist dat Amazon 4 miljard investeert in Anthropic AI. Maar wat is en doet Anthropic eigenlijk?

Anthropic is een AI-gedreven onderzoeksbedrijf dat zich richt op het vergroten van de veiligheid van AI-systemen. Anthropic is een term die afkomstig is van het woord ‘anthropos’, wat ‘menselijk’ of ‘humaan’ betekent in het Grieks. Anthropic is opgericht door ex-OpenAI-medewerkers. De onderzoeksinteresses van Anthropic bestrijken meerdere gebieden, waaronder natuurlijke taalverwerking, versterkend leren, neurale schaalvergroting, het genereren van code en het interpreteren daarvan. Anthropic is een van ‘s werelds meest toonaangevende A.I. onderzoekslaboratoria van dit moment en een geduchte concurrent van giganten als Google en Meta.

Medewerkers van Anthropic maken zich zorgen over de ontwikkeling van AI. Velen van hen geloven dat A.I. modellen snel een niveau naderen waarop ze kunnen worden beschouwd als kunstmatige algemene intelligentie, of ‘A.G.I.’, de industriële term voor machine-intelligentie op menselijk niveau. En ze zijn bang dat deze systemen ons kunnen overnemen en vernietigen als ze niet zorgvuldig worden gecontroleerd.
“Sommigen van ons denken dat A.G.I. – in de zin van systemen die werkelijk net zo capabel zijn als iemand met een universitaire opleiding – over misschien vijf tot tien jaar realiteit zijn”, zegt Jared Kaplan, hoofdwetenschapper van Anthropic in NY Times.

Anthropic heeft praktische redenen om geavanceerde A.I.-modellen te bouwen – voornamelijk zodat hun onderzoekers de veiligheidsuitdagingen van die modellen kunnen bestuderen. Bij Anthropic zien ze gevaar voor AI en de oplossing voor het gevaar als iets wat dicht bij elkaar zit. Volgens Dario Amodei (CEO van Anthropic) is het bedrijf de concurrentie aangegaan met OpenAI (bekend van ChatGPT) om beter onderzoek te doen naar de veiligheid van chatbots en die te verbeteren voor alle miljoenen mensen die deze al gebruiken. De zorgen bij Anthropic strekken zich ook uit tot de eigen producten. Het bedrijf bouwde vorig jaar een versie van Claude, maanden voordat ChatGPT werd uitgebracht, maar bracht deze nooit publiekelijk uit omdat werknemers vreesden voor misbruik. En het heeft maanden gekost om Claude 2 de deur uit te krijgen, deels omdat het ‘red team‘ van Anthropic steeds nieuwe manieren bedacht waarop Claude gevaarlijk kon worden.

Constitutional AI verwijst naar kunstmatige intelligentie (AI) -systemen die gebruikmaken van een reeks principes of ‘grondwettelijke’ richtlijnen om hun gedrag te reguleren en te evalueren. Deze principes dienen als een soort ethisch raamwerk waarmee de AI beoordeelt of de resultaten van zijn acties overeenkomen met bepaalde normen en waarden.
Constitutional AI is ontworpen om een ethische en verantwoorde toepassing van kunstmatige intelligentie te bevorderen door het gedrag van de AI-systemen in lijn te brengen met menselijke waarden en maatschappelijke normen.

Anthropic gebruikt de grondwet (constitution) op twee momenten tijdens het trainingsproces. Tijdens de eerste fase wordt het model getraind om zijn eigen antwoorden te beoordelen en te herzien met behulp van de reeks principes en enkele voorbeelden van het proces. Tijdens de tweede fase wordt een model getraind via reinforcement learning (RL / versterkend leren). In plaats van menselijke feedback te gebruiken, gebruikt Anthropic AI-gegenereerde feedback op basis van een reeks principes om de zo min mogelijk schadelijke output te kiezen.

Constitutional AI biedt een succesvol voorbeeld van schaalbaar toezicht op AI toepassingen. ‘Vijandige’ invoer wordt adequaat behandeld en ‘onschadelijk’ gemaakt, zodat toxiciteit in antwoorden vermindert en behulpzaamheid altijd voorop staat.

Het oorspronkelijke product van Anthropic is Claude, een AI-hulp voor taken van elke omvang. Claude is een volgende generatie AI-assistent gebaseerd op het onderzoek van Anthropic naar behulpzame, eerlijke, onschadelijke AI-systemen en het trainen hiervan. Claude is toegankelijk via een chatinterface en API via de ontwikkelaarsconsole. Claude is in staat om een breed scala aan conversatie- en tekstverwerkingstaken uit te voeren, met behoud van een hoog niveau van betrouwbaarheid en voorspelbaarheid.

Claude AI

Op moment van schrijven is Claude AI nog niet beschikbaar in Nederland, maar alleen beschikbaar voor inwoners van de Verenigde Staten en het Verenigd Koninkrijk. Beide aanbieders van deze kunstmatige intelligentie beschikken over een chatbot en API. Een groot verschil is dat Claude AI is getraind op de nieuwste realtime gegevens en dat ChatGPT informatie kan geven over data tot september 2021. Je kunt Claude dus om actuele informatie vragen. Een ander groot voordeel van Claude AI ten opzichte van ChatGPT is dat er documenten geüpload kunnen worden (maximaal 5 bestanden tegelijk, maximaal 10MB). Je kunt deze bijvoorbeeld eenvoudig laten samenvatten of analyseren door Claude AI. Een nadeel op dit moment is dat er slechts 10 talen beschikbaar zijn voor Claude, terwijl dit er voor ChatGPT inmiddels meer dan 200 zijn.

AI

Hulp nodig met AI?

Contact

Anthropic is een geduchte concurrent voor OpenAI’s ChatGPT. Het bedrijf heeft op dit moment ongeveer 200 werknemers en groeit flink door. De oprichters van het bedrijf zijn allen ex-werknemers van OpenAI. Onze verwachting is dat Anthropic’s Claude een grote en misschien wel betrouwbaardere concurrent gaat worden van OpenAI’s ChatGPT.

Een aantal grote tech spelers hebben geïnvesteerd in Anthropic. Amazon heeft in september 2023 een investering tot 4 miljard toegezegd en ook Google kocht al eens 10 procent van de aandelen. De toekomst voor het bedrijf om door te pakken lijkt gunstig.

Waar de missie van OpenAI is te zorgen dat kunstmatige algemene intelligentie de hele mensheid ten goede komt doet Anthropic AI daar een stap bovenop met het bieden van een alternatief waar veiligheid voorop staat. Met mogelijke wetgeving en gevaren in de toekomst zou dit zomaar eens de nieuwe grote speler kunnen worden.

Reacties (0)

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *