Over het Originele Team

De makers van AI 2027

Over het AI 2027 Scenario

Het AI 2027 scenario is de eerste grote uitgave van het AI Futures Project. Dit is een nieuw non-profit dat de toekomst van AI probeert te voorspellen.

Het Originele Team

Daniel Kokotajlo

Directeur

Daniel leidt hun onderzoek en beleidsaanbevelingen. Hij werkte eerder als governance-onderzoeker bij OpenAI aan scenario planning. Toen hij OpenAI verliet, riep hij op tot betere transparantie van top AI-bedrijven. In 2021 schreef hij "What 2026 Looks Like," een AI-scenario voorspelling voor 2022–2026 die goed uitpakte.

Eli Lifland

Onderzoeker

Eli werkt aan scenario voorspellingen en specialiseert zich in het voorspellen van AI-capaciteiten. Hij was ook mede-oprichter van Sage en adviseur van Sage, dat interactieve AI-uitleggers bouwt. Hij staat #1 op de RAND Forecasting Initiative all-time ranglijst.

Thomas Larsen

Onderzoeker

Thomas werkt aan scenario voorspellingen en richt zich op het begrijpen van de doelen en echte impact van AI-assistenten. Hij richtte eerder het Center for AI Policy op, een AI-veiligheidsadvocacyorganisatie, en werkte aan AI-veiligheidsonderzoek bij het Machine Intelligence Research Institute.

Romeo Dean

Onderzoeker

Romeo specialiseert zich in het voorspellen van AI-chipproductie en -gebruik. Hij rondt een informatica master af aan Harvard University met een focus op hardware en machine learning. Hij was eerder een AI Policy Fellow bij het Institute for AI Policy and Strategy.

Jonas Vollmer

COO

Jonas richt zich op hun communicatie en dagelijkse gang van zaken. Daarnaast helpt hij ook bij het beheren van Macroscopic Ventures, een AI-venture fund en filantropische stichting. Hij was eerder mede-oprichter van de Atlas Fellowship en het Center on Long-Term Risk.

Scott Alexander

Schrijver

Scott Alexander, bekende blogger, bood aan om hun inhoud in een boeiende stijl te herschrijven. De leuke delen van het verhaal zijn van hem, de saaie delen van hen.

Bijdragen

Daniel Kokotajlo, Eli Lifland, Thomas Larsen, en Romeo Dean schreven de inhoud van het scenario en de eindes. AI 2027 is gebaseerd op ervaring uit meer dan een dozijn tafeloefeningen met honderden verschillende mensen.

Oliver Habryka, Rafe Kennedy, en Raymond Arnold van Lightcone Infrastructure bouwden en ontwierpen de website. FutureSearch leverde onafhankelijke voorspellingen voor ons tijdlijn-, doorbraak-, en inkomsten-onderzoek.

Missie van het AI Futures Project

Het AI Futures Project gelooft dat het belangrijk is om mensen bewust te maken van zowel de kansen als de risico's van kunstmatige intelligentie. Door concrete scenario's te laten zien, hopen ze een geïnformeerde discussie op gang te brengen over hoe we kunnen sturen naar een positieve toekomst met AI.

Het AI 2027 scenario is geen voorspelling van wat er gaat gebeuren, maar een gedetailleerde inschatting van wat er zou kunnen gebeuren. Door dit te delen, hopen ze dat mensen beter voorbereid zijn op de veranderingen die eraan komen.

⚠️ Belangrijke Waarschuwing

Dit scenario beschrijft mogelijke risico's en gevaren van AI-ontwikkeling. Het is niet bedoeld om paniek te zaaien, maar om bewustzijn te creëren zodat we als samenleving beter voorbereid zijn.

AI-technologie biedt ook enorme kansen voor positieve verandering. Het doel van dit scenario is om ervoor te zorgen dat we die kansen kunnen benutten terwijl we de risico's minimaliseren.

🇳🇱 Nederlandse Vertaling

Deze website is een Nederlandse vertaling van het originele AI 2027 scenario, gemaakt om meer bewustzijn te creëren over AI-risico's in Nederland.

Toestemming: Deze vertaling en website zijn gemaakt met toestemming van de makers van het officiële AI 2027 rapport. Hoewel de vertaling onafhankelijk is uitgevoerd en niet geaffilieerd is met het AI Futures Project, is deze goedgekeurd door de originele auteurs.

De vertaling is gemaakt met respect voor de originele auteurs en hun belangrijke werk. Waar nodig zijn technische termen aangepast om het scenario toegankelijker te maken voor Nederlandse lezers, zonder de kernboodschap te veranderen.

Deel dit rapport om de discussie over AI-veiligheid in Nederland te vergroten. We hebben als samenleving deze informatie nodig om goede keuzes te maken over onze toekomst.