Our One AI
De architectuur voor door de gemeenschap getrainde domeinexpert-AI. Geen idealisme. Engineering.
16 min read
AI-labs haalden meer dan $60 miljard op in de afgelopen twee jaar. Ze scrapeten elke open-source repository, elk Stack Overflow-antwoord, elk abstract van een medisch tijdschrift, elke juridische akte in PACER, elke tutorial en forumpost en carrièregeschiedenis die professionals decennialang in het openbaar opbouwden. Ze sloten deze meent in private modellen. Ze verkopen die modellen nu aan uw werkgever als reden om minder van u aan te nemen.
U bouwde de trainingsdata. U hebt niet ingestemd. U bezit het resultaat niet. U hebt geen zeggenschap over hoe het wordt gebruikt.
Dit is de architectuur om het alternatief te bouwen.
Geen protest. Geen beleidsstuk. Een technisch plan voor door de gemeenschap getrainde domeinexpert-AI — modellen die concurreren met frontier-labs in professionele domeinen, getraind door de professionals wiens expertise AI waardevol maakt, constitutioneel hun eigendom.
De labs hebben de rekenkracht. Ze hebben niet de cardiologen.
Waarom niet gewoon ChatGPT gebruiken?
Drie redenen. Elk structureel, niet ideologisch.
Het is getraind op uw werk zonder uw toestemming. De modellen achter ChatGPT, Claude en Gemini zijn getraind op de collectieve output van miljoenen professionals die nooit met dit specifieke gebruik hebben ingestemd. Begraven in de gebruiksvoorwaarden stond een clausule over "diensten verbeteren." Dat bleek te betekenen: modellen trainen ter waarde van honderden miljarden dollars op alles wat u ooit hebt bijgedragen. De voorwaarden veranderden. Het gebruik veranderde. Uw toestemming werd nooit gevraagd, omdat de structuur zo was ontworpen dat dat niet nodig was.
Het is middelmatig in uw specialisme. Een generiek model produceert zelfverzekerde, plausibele, subtiel onjuiste antwoorden in de domeinen waar nauwkeurigheid het meest telt. Een huisarts weet dit — de differentiaaldiagnose die redelijk klinkt maar de klinische context mist. Een constructie-ingenieur weet dit — de berekening die de juiste formule gebruikt maar het verkeerde belastinggeval. Een octrooiadvocaat weet dit — de juridische analyse die echte wetten citeert maar het precedent verkeerd toepast. Generieke modellen optimaliseren voor correct klinken. Professionals moeten correct zijn. Het verschil daartussen is waar carrières, gezondheid en constructies falen.
U hebt er geen zeggenschap over. OpenAI begon als non-profit, werd een winstbegrensd bedrijf, en verwijderde vervolgens de begrenzing. Het bestuur dat precies dit moest voorkomen, stemde ermee in. Het model waarop u professioneel vertrouwt, kan zonder kennisgeving veranderen, zonder uitleg, zonder uw inbreng. De voorwaarden verschuiven. De mogelijkheden verschuiven. De trainingsdata verschuiven. U bouwt uw professionele werkwijze op een fundament dat u niet kunt auditen, niet kunt besturen en niet ter verantwoording kunt roepen.
Dit zijn geen bezwaren tegen AI. Dit zijn bezwaren tegen de structuur. De technologie is buitengewoon. Het eigendom is het probleem.
De kloof sluit zich. Sneller dan de labs willen erkennen.
In maart 2026 ziet het AI-landschap er zo uit:
DeepSeek V3.2 — 685 miljard parameters, maar slechts 37 miljard actief per token via Mixture-of-Experts-architectuur. Evenaart GPT-5 op wiskundig redeneren tegen een tiende van de trainingskosten. De innovatie was niet meer geld. Het was betere architectuur: sparse attention die de rekencomplexiteit reduceert van kwadratisch naar bijna-lineair, latent attention die geheugengebruik met 93% comprimeert, en routing die experts echt laat specialiseren in plaats van kunstmatig gebalanceerd te worden.
Qwen 3.5 — Een model met 35 miljard parameters dat slechts 3 miljard parameters per token activeert, verslaat een model met 235 miljard parameters dat er 22 miljard activeert. Zeven keer minder actieve parameters. Betere resultaten. De doorbraak was een hybride architectuur met lineaire-complexiteit-attention in 75% van de lagen, waardoor contextvensters van een miljoen tokens mogelijk zijn zonder kwadratische kosten.
OLMo 3 — Van het Allen Institute for AI. Scoort 96,1% op de MATH-benchmark. En in tegenstelling tot elk ander frontier-competitief model is het volledig open: de trainingsdata (Dolma 3, 9,3 biljoen tokens), elke regel trainingscode, elk tussentijds checkpoint, elk trainingslog. Gepubliceerd zonder beperkingen. Het enige model waarvan u exact kunt verifiëren wat erin ging.
Open-weight modellen lopen nu ongeveer drie maanden achter op propriëtaire modellen, volgens Epoch AI. De kloof die twee jaar was in 2024 convergeert naar nul.
Dit is wat het betekent voor het plan dat u leest: basismodellen worden een commodity. De architectuur, de trainingsinfrastructuur, de optimalisatietechnieken — alles wordt beschikbaar. Wat geen commodity wordt, is de expertise die deze modellen bruikbaar maakt in professionele domeinen. Die expertise behoort toe aan de professionals. En de professionals zijn nog niet georganiseerd.
Datakwaliteit verslaat datakwantiteit. Dit is bewezen.
Microsoft besteedde honderden miljoenen dollars aan het bewijzen van onze stelling. Hun Phi-onderzoeksprogramma toonde aan dat een kleiner model getraind op echt door experts gecureerde data beter presteert dan modellen getraind op vele malen meer generieke webschraping.
Phi-2 — 2,7 miljard parameters. Evenaarde of overtrof Llama-2-70B — een model 25 keer zo groot — op redeneertaken. Het verschil was niet architectuur of rekenkracht. Het was "leerboek-kwaliteit" trainingsdata: gecureerd, gefilterd, ontworpen om redeneren te onderwijzen in plaats van alleen het volgende token te voorspellen.
Phi-4-reasoning — 14 miljard parameters. Overtreft DeepSeek-R1-Distill-70B op AIME 2025-wiskundebenchmarks. Fijn afgesteld op 1,4 miljoen hoogwaardige STEM-prompts. De reinforcement learning-fase gebruikte slechts 6.400 wiskundeproblemen. De onderzoekers stelden expliciet: "De grootste prestatiewinsten kwamen niet van architectuur of schaal. Ze kwamen van datacuratie."
LIMA — Meta's eigen onderzoek. Fijn afgesteld op een model met 65 miljard parameters met slechts 1.000 zorgvuldig gecureerde voorbeelden. Geen reinforcement learning. Geen preference modeling. Menselijke beoordelaars verkozen het boven GPT-4 in 43% van de vergelijkingen. De conclusie van het paper: "Vrijwel alle kennis in grote taalmodellen wordt geleerd tijdens pretraining, en slechts beperkte instruction tuning-data is nodig om modellen te leren hoogwaardige output te produceren."
HelpSteer2 — NVIDIA behaalde 92% op de RewardBench-benchmark — state of the art — met slechts 10.000 preference pairs. Tienduizend. Niet tien miljoen.
De implicatie is direct. U hoeft geen basismodel van de grond af te trainen. Dat kost honderden miljoenen dollars en vereist biljoenen tokens. Wat u nodig hebt, is een sterk open basismodel — al beschikbaar, al concurrerend — en door experts gecureerde data om het fijn af te stellen voor professionele domeinen. De expertdata is wat de labs niet kunnen krijgen. Het bestaat niet op het open web. Het leeft in de hoofden van de professionals die het beoefenen.
Dat is waarvoor Our One gebouwd is om te organiseren.
Wat we bouwen. Specifiek.
De architectuur heeft vier lagen. Elk is een bewuste keuze met een constitutionele reden erachter.
Laag 1: Het basismodel. We beginnen bij OLMo 3 — het volledig open model van het Allen Institute. Niet omdat het de hoogste benchmarkscores heeft. Qwen 3.5 overtreft het op meerdere benchmarks. DeepSeek V3.2 overtreft het op wiskundig redeneren. Wij kiezen OLMo omdat het het enige frontier-competitieve model is waarvan de trainingsdata volledig openbaar is, elk checkpoint gepubliceerd, en het volledige trainingsproces reproduceerbaar. Voor een constitutioneel platform is herkomst niet optioneel. Het basismodel moet op elke laag auditeerbaar zijn. Niet alleen open weights — open data.
De architectuur is modulair. Als een toekomstig open model de transparantiestandaard van OLMo evenaart met betere prestaties, zijn de professionele expertise-lagen overdraagbaar. We zitten niet vast aan één model. We zitten vast aan één principe: volledige auditeerbaarheid.
Laag 2: Professionele fijnafstemming. Drie stadia, elk voor een ander probleem:
Supervised Fine-Tuning (SFT) leert het model hoe professionals communiceren. Het vocabulaire, de structuur, de conventies van elk domein. Een radiologenverslag volgt een specifiek format. Een octrooiclaim heeft een specifieke structuur. Een constructieberekening volgt een specifieke volgorde. SFT leert het model deze patronen met door experts geschreven voorbeelden.
Direct Preference Optimization (DPO) leert het model welke antwoorden professionals daadwerkelijk verkiezen. Twee antwoorden kunnen allebei feitelijk correct zijn, maar het ene geeft prioriteit aan de juiste overwegingen, gebruikt geschiktere onzekerheidstaal, is bruikbaarder voor het specifieke scenario. DPO vangt dit professionele oordeel direct — geen apart beloningsmodel nodig, stabiele training, werkt goed met slechts 5.000 preference pairs.
Reinforcement Learning with Verifiable Rewards (RLVR) laat het model oefenen op problemen met verifieerbare antwoorden. Een geneesmiddelinteractiecontrole geverifieerd tegen een farmacologische database. Een constructieberekening numeriek geverifieerd. Een codefunctie geverifieerd door een testsuite. Het model genereert oplossingen, een verifier controleert ze, en het model verbetert via reinforcement learning — geen mens in de loop tijdens training. DeepSeek bewees met R1 dat deze aanpak emergente redeneercapaciteiten oplevert: zelfreflectie, verificatie, adaptief probleemoplossen.
Laag 3: Domeinexpert-adapters. Elke professie krijgt een eigen adapter — een gespecialiseerde lens boven op de gedeelde basis. Dit zijn LoRA-adapters: parameter-efficiënte modules van 100 tot 200 megabyte, vergeleken met 60 gigabyte voor een volledige modelkopie. Ze zijn stapelbaar. Een query van een pediatrisch neuroradioloog laadt: basismodel, plus geneeskunde-adapter, plus radiologie-adapter, plus neuroradiologie-adapter. Elke laag voegt domeinspecifieke expertise toe zonder het hele model te dupliceren.
De hiërarchie volgt professionele diepte:
| Niveau | Voorbeeld | Benodigde Expert Pairs | Bijdragende Professionals |
|---|---|---|---|
| Domein | Geneeskunde | 50.000–100.000 | 5.000–10.000 |
| Specialisme | Cardiologie | 10.000–30.000 | 500–1.500 |
| Subspecialisme | Interventiecardiologie | 3.000–10.000 | 100–500 |
| Procedure | CTO PCI-techniekelectie | 500–2.000 | 30–100 |
Dit zijn geen fulltime verplichtingen. Geen professional stopt met de praktijk om AI te trainen. Het model gaat uit van vijf uur per week — een paar expert-Q&A-paren, een handvol preference-oordelen, wat verificatiesignalen tijdens normaal platformgebruik. Een cardioloog die vijf uur per week bijdraagt, produceert ongeveer tien tot vijftien hoogwaardige trainingsinteracties per maand. Vijfhonderd cardiologen die dat doen, produceren genoeg data voor een sterke specialisme-adapter binnen een jaar.
De aantallen op domeinniveau zijn bewust groot — vijf- tot tienduizend professionals die bijdragen aan geneeskunde — omdat geneeskunde breed is, de belangen hoog zijn en de subspecialismen diep. Maar dat is precies de schaal waarvoor een constitutioneel professioneel netwerk gebouwd is. U hebt die tienduizend mensen niet in een lab nodig. U hebt ze nodig op een platform dat ze al gebruiken, expertise bijdragend als een natuurlijke uitbreiding van hun professionele activiteit.
Laag 4: Routing. Wanneer een query binnenkomt, identificeert een lichtgewicht router het professionele domein, selecteert de relevante adapters, laadt ze en levert het antwoord. Het professionele profiel van de gebruiker bepaalt welke adapters geladen worden. Een pediatrisch neuroradioloog krijgt een andere modelconfiguratie dan een octrooiadvocaat — dezelfde basis, andere expertise.
Hoe professionals bijdragen. Zonder dat het als werk voelt.
Drie methoden, geïntegreerd in het platform dat u al gebruikt.
Direct schrijven. U schrijft een vraag die een junior collega zou kunnen stellen en het expertantwoord dat u zou geven. Dit is de gouden standaard — de hoogste kwaliteit trainingsdata. Doel: twee tot vijf per maand. Dertig interventiecardiologen die vijf per maand bijdragen, produceren 1.800 paren per jaar. Dat is genoeg om een subspecialisme-adapter te trainen.
Antwoordverbetering. Het model stelt een antwoord op voor een professionele vraag. U leest het. U corrigeert wat het fout had, voegt toe wat het miste, verfijnt de taal. Het verschil tussen het concept van het model en uw correctie wordt een trainingssignaal. Sneller dan zelf schrijven. Sterk signaal voor het aanleren van professioneel oordeel. Doel: vijf tot vijftien per maand.
Verificatiesignalen. U komt modeloutput tegen in uw dagelijks platformgebruik. U markeert ze: correct of incorrect. Volledig of onvolledig. Zou-gebruiken of zou-niet-gebruiken. Dit voedt preference optimization — het model leert welke output professionals vertrouwen. Doel: twintig tot vijftig signalen per maand. Dit is de lichtste bijdrage, en het genereert de meeste data in volume.
Dan is er de bijdrage met de hoogste hefboom: verifiers definiëren.
Een verifier is een geautomatiseerd controlesysteem voor uw domein. Een cardioloog hoeft geen tienduizend redeneertraces te labelen. Ze definiëren: "Hier zijn vijfhonderd klinische casussen met bevestigde diagnoses. Hier is hoe u controleert of het redeneren van het model de juiste conclusie bereikte." Eén expert die veertig uur besteedt aan het maken van een verifier met tweehonderd problemen maakt duizenden reinforcement learning-trainingsiteraties mogelijk. De verifier draait op machinesnelheid. Geen mens in de loop.
Dit sluit aan op het platform dat u al kent. Het Signals-systeem — dat Likes vervangt door Helder, Praktisch, Moedig, Origineel — is niet alleen betere feedback voor auteurs. Het is gestructureerde trainingsdata voor AI. Elke keer dat u signaleert hoe een stuk professionele inhoud ertoe deed, draagt u bij aan het model dat uw professie zal dienen. De infrastructuur is dezelfde. Het doel is tweeledig.
De innovaties die dit nu mogelijk maken.
Dit plan zou twee jaar geleden niet geloofwaardig zijn geweest. De AI-onderzoeksgemeenschap heeft in 2025 en 2026 een reeks doorbraken geproduceerd die door de gemeenschap getrainde domeinexpert-AI niet alleen mogelijk maken, maar economisch rationeel. Hier zijn de belangrijkste.
Training-Free GRPO. Toegepast op een bevroren DeepSeek-model met slechts honderd trainingssamples overtreft deze techniek het volledig fijn afstemmen van een model met 32 miljard parameters. Kosten: acht dollar. Versus achthonderd voor volledige fijnafstemming. Een honderdvoudige reductie. De implicatie: u kunt betekenisvolle redeneerverbeteringen halen uit een door de gemeenschap gecureerde dataset tegen bijna nul kosten.
QDoRA — quantized weight-decomposed LoRA. Vier-bit gekwantiseerde fijnafstemming die niet alleen volledige fijnafstemming evenaart maar soms overtreft. Dit betekent dat domeinspecifieke adapters getraind kunnen worden op consumenten-hardware. Een professional met een moderne GPU kan bijdragen aan het fijn afstemmen van de adapter van hun professie op hun eigen machine.
LoRA-MoE-composities. HELLoRA koppelt adapters alleen aan de vaakst geactiveerde experts in een Mixture-of-Experts-model — waardoor trainbare parameters afnemen terwijl de prestatie stijgt. MoLA wijst verschillende aantallen LoRA-experts per laag toe. MixLoRA voegt meerdere LoRA-experts toe met top-k routing, met een nauwkeurigheidsverbetering van 9% in multi-task-scenario's. Deze technieken betekenen dat door de gemeenschap getrainde domein-adapters samensmelten tot een mixture — elke professionele gemeenschap traint haar eigen expert, en de experts combineren.
S-LoRA. Een serving-architectuur die efficiënt duizenden LoRA-adapters draait vanaf een enkel basismodel met vier keer de doorvoer van naïeve benaderingen. Eén GPU-cluster bedient elke professie. Het basismodel laadt één keer. De adapters wisselen on demand. Zo bedien je geneeskunde, recht, engineering, financiën en software vanuit dezelfde infrastructuur.
Sparse attention. DeepSeeks Sparse Attention reduceert rekencomplexiteit van kwadratisch naar bijna-lineair door alleen de meest relevante tokens te selecteren voor elke attention-berekening. Professionele inhoud is inherent lang — artikelen, casestudies, projectdocumentatie, carrièregeschiedenissen. Sparse attention maakt het verwerken van deze inhoud betaalbaar.
Federated LoRA. Professionals stemmen fijn af op hun eigen data zonder deze te delen. De adapters aggregeren in een gemeenschapsmodel. Privacy-preserverend door architectuur. De patiëntinteractiepatronen van een arts verbeteren de medische adapter zonder dat patiëntdata hun apparaat verlaat.
Test-time compute scaling. Onderzoek uit 2024-2025 bewees dat kleinere modellen met meer inferentie-rekenkracht beter presteren dan modellen die veertien keer groter zijn. De implicatie: u hoeft niet het grootste model te trainen. U traint een klein, expertmodel en investeert rekenkracht op het moment van gebruik. Dit is de economische ontsluiting — kleine expertmodellen zijn levensvatbaar wanneer u rekenkracht kunt opschalen tijdens inferentie.
Gemeenschapstraining op schaal is bewezen. BLOOM — 176 miljard parameters, getraind door 392 auteurs uit tientallen instellingen. INTELLECT-3 — 106 miljard parameter MoE-model met het volledige trainingsrecept open-sourced, inclusief reinforcement learning-omgevingen. OpenDiLoCo — gedistribueerde training over twee continenten met 90-95% rekenkrachtbenutting en 500x reductie in communicatie-overhead. Dit zijn geen voorstellen. Dit zijn voltooide projecten.
Het fijn afstemmen van een model met vijftien miljard parameters met QLoRA kost veertien dollar. Het trainen van een per-professie adapter kost tien tot honderd dollar. De economie van door de gemeenschap getrainde AI is niet theoretisch. Ze is operationeel.
Wat het kost. Daadwerkelijk.
Wij publiceren de cijfers voordat ze comfortabel zijn. Elk platform claimt transparantie nadat het winstgevend is. Wij publiceren ze nu.
| Schaal | Leden | Jaarlijkse Trainingskosten | Jaarlijkse Data-opbrengst | Wat Het Oplevert |
|---|---|---|---|---|
| Proof of Concept | 10.000 | $10K–$50K | 500K expert pairs | 2–3 domeinen, meetbaar beter dan ChatGPT in die domeinen |
| Domeinbreedte | 100.000 | $100K–$500K | 5M expert pairs | 20–30 domeinen, professioneel-grade prestatie |
| Competitief | 1.000.000 | $1M–$5M | 50M expert pairs | Alle grote professionele domeinen, frontier-competitief in experttaken |
| Het Alternatief | 10.000.000 | $5M–$15M | 500M+ expert pairs | Een van de grootste op toestemming gebaseerde expertkennis-databases ooit samengesteld |
We zijn eerlijk over één ding: één cent per dag dekt het platform — infrastructuur, team, bestuur. Het dekt geen AI-training en inferentie. We doen niet alsof.
Our One AI krijgt zijn eigen prijsstelling. We weten het exacte bedrag nog niet, maar we kennen de grenzen. Het wordt geen $20 per maand zoals ChatGPT Plus. Het wordt geen $200 per maand zoals Claude Code Max. We verwachten dat het onder de $5 per maand komt — genoeg om trainingsrekenkracht, inferentie en infrastructuur te dekken, met alle overschotten terug naar de gemeenschap wiens expertise het mogelijk maakte. Het exacte stake-mechanisme voor AI-inkomsten — hoe het terugstroomt, gewogen naar bijdrage — wordt gepubliceerd als een van de eerste governance-voorstellen waarover de gemeenschap stemt, zodra we de ledensdrempel bereiken om die stem betekenisvol te maken.
Deze trainingskosten gaan ervan uit dat elke professional gemiddeld vijftig expertinteracties per jaar bijdraagt — over direct schrijven, antwoordverbetering en verificatiesignalen gecombineerd. Dat is ongeveer één per week. De werkelijke bijdrage van betrokken professionals zal aanzienlijk hoger zijn.
De trainingskosten van frontier-modellen groeien met 2,4x per jaar, richting een miljard dollar per trainingsrun tegen 2027. Maar algoritmische efficiëntie verbetert 3x per jaar — en Our One hoeft niet van de grond af te pre-trainen. De fijnafstemlaag waar professionele expertise leeft, kost een fractie van wat het basismodel kostte om te bouwen. Het basismodel is gratis. De expertise is van ons.
Wat we niet zullen beweren.
Our One AI zal niet concurreren op breedte van algemene kennis. ChatGPT heeft het hele open web opgenomen. Wij gaan dat niet evenaren, en we proberen het niet.
Het zal niet de frontier multimodale generatiecapaciteiten evenaren — beeld-, video- en audiosynthese. Dat vereist investeringen in rekenkracht van honderden miljoenen, en daar zit de professionele waarde niet.
Het zal niet zo snel itereren als labs met duizenden onderzoekers. We brengen niet elk kwartaal een nieuw model uit. We brengen er een uit wanneer het beter is dan het vorige, gebenchmarkt tegen professionele taken, met gepubliceerde resultaten.
Het wordt niet het model dat u gebruikt voor alledaagse vragen, creatief schrijven of algemeen gesprek. Daar zijn uitstekende modellen voor. Gebruik die.
Wat Our One AI wél wordt, is het model dat uw professie vertrouwt. Getraind door uw vakgenoten. Bestuurd door uw Grondwet. Waarvan u de herkomst van de trainingsdata kunt verifiëren in de publieke repository. Het model dat niet zelfverzekerd hallucineert over uw specialisme — omdat de trainingsdata is geschreven door mensen die het daadwerkelijk beoefenen, beoordeeld door mensen die het daadwerkelijk beoefenen, en geverifieerd door mensen die het daadwerkelijk beoefenen.
Een arts die AI-output beoordeelt, is fundamenteel anders dan een webschraping van WebMD. Een constructie-ingenieur die een berekening verifieert, is fundamenteel anders dan een taalmodel dat voorspelt welke getallen gewoonlijk na de prompt volgen. Een octrooiadvocaat die een juridische analyse corrigeert, is fundamenteel anders dan Mechanical Turk-werkers die data labelen voor domeinen die ze niet begrijpen.
Het kwaliteitsverschil tussen expert-getraind en web-getraind is het verschil dat Our One AI gebouwd is om te benutten.
De datamuur komt eraan. Wij staan aan de juiste kant.
Frontier-modellen trainen op tien tot vijftien biljoen tokens. De totale voorraad hoogwaardige publieke Engelse tekst wordt geschat op veertig tot negentig biljoen tokens. Inclusief alle talen: honderd tot tweehonderd biljoen. De labs naderen de grens van wat gescraped kan worden.
Tegen 2027 tot 2028 hebben frontier-modellen waarschijnlijk alle beschikbare hoogwaardige publieke tekst uitgeput. De volgende frontier is niet meer webschraping. Het is door experts gecureerde, domeinspecifieke data met toestemming. Het soort data dat u niet kunt scrapen omdat het niet in tekstvorm bestaat — het leeft in het professionele oordeel van mensen die decennia besteed hebben aan het ontwikkelen ervan.
De regelgevingsomgeving verschuift in dezelfde richting. Californië's AB 2013, van kracht sinds januari 2026, verplicht alle ontwikkelaars van generatieve AI om trainingsdata-details openbaar te maken: bronnen, typen, auteursrechtelijk beschermd materiaal, persoonlijke informatie — twaalf categorieën van verplichte openbaarmaking. De EU AI Act schrijft een openbaar sjabloon voor trainingsdata-openbaarmaking voor, ook van toepassing op open-source modellen.
Deze wetten creëren marktvraag naar transparantie van trainingsdata. Modellen gebouwd op volledig openbaar gemaakte data met toestemming — wat de Grondwet van Our One vereist — verschuiven van ethische aspiratie naar regelgevingsvoordeel.
Our One beschikt over de enige constitutioneel bestuurde bron van professionele expertdata. Naarmate de datamuur nadert, wordt dit niet een idealistische positie maar een strategische. De labs hebben nodig wat wij hebben. Wij hebben niet nodig wat zij hebben. De basismodellen zijn open. De expertise niet.
Constitutionele AI. Niet als slogan.
Elk stuk trainingsdata in het Our One AI-systeem valt onder constitutioneel bestuur. Dit is geen feature. Het is het product.
Expliciete toestemming. Elk trainingsrecord is gekoppeld aan een specifieke versie van de Grondwet. Geen data komt de trainingspipeline in zonder de geïnformeerde, individuele toestemming van de bijdrager. De standaard is opt-out. Er zijn geen uitzonderingen voor "platformverbetering" of "onderzoek."
Herroepbaarheid. Een bijdrager kan zijn data te allen tijde intrekken. Intrekking triggert een hertrainingscyclus die de ingetrokken inhoud uitsluit. Dit is geen belofte. Het is een constitutionele bepaling — een van de bepalingen die nooit gewijzigd kunnen worden, door welk proces dan ook.
Herkomst. Elk trainingsrecord wordt gehasht bij creatie. De hash wordt onveranderlijk opgeslagen. De afstamming van elk stuk data — wie het bijdroeg, wanneer, onder welke versie van de Grondwet, of het is beoordeeld, door wie — is traceerbaar. OlmoTrace, het herkomstsysteem ingebouwd in ons basismodel, maakt het mogelijk modeloutput terug te voeren naar trainingsdata.
Rechten van bijdragers. De bijdrager behoudt intellectuele eigendomsrechten. Ze licentiëren aan Our One AI onder de Grondwet. Ze geven geen eigendom op. Ze dragen geen rechten over. Ze licentiëren, herroepbaar, onder bestuur waaraan ze deelnemen.
Inkomsten terugkeren. Wanneer Our One AI inkomsten genereert, vloeien die terug naar de gemeenschap wiens kennis het mogelijk maakte. Niet naar oprichters. Niet naar investeerders. Naar de mensen die het bouwden. De Grondwet maakt dit structureel — geen belofte van het huidige leiderschap, maar een bindende bepaling die elke wisseling van beheer overleeft.
Professiegrondwetten. Elk professioneel domein bestuurt zijn eigen AI-principes. Geneeskunde heeft andere vereisten dan recht. Engineering heeft andere vereisten dan marketing. Een medische AI-grondwet zou kunnen specificeren: overdrijf zekerheid niet, scheid triage-advies van diagnose-claims, maak nood-red flags duidelijk zichtbaar. Een juridische AI-grondwet zou kunnen specificeren: scheid issue spotting van juridisch advies, vermeld duidelijk jurisdictie-afhankelijkheid, impliceer geen advocaat-cliëntrelatie. Deze grondwetten sturen zowel menselijke bijdragen als modelgedrag.
Geen lab kan dit repliceren. Niet omdat de technologie propriëtair is — die is open. Omdat geen lab een constitutionele relatie heeft met de mensen wiens expertise het model traint. Zij hebben gebruiksvoorwaarden. Wij hebben een Grondwet.
Het vliegwiel.
Dit is geen eenmalige trainingsinspanning. Het is een levend systeem.
Professionals gebruiken het model. Hun feedback — correcties, voorkeuren, verificaties — wordt trainingsdata. Het model verbetert. Het verbeterde model trekt meer professionals aan. Meer professionals genereren meer expertdata. Het model verbetert opnieuw.
Elke cyclus verdiept de expertise. Elke cyclus verbreedt de dekking. Elke cyclus versterkt de gracht — want de gracht is niet de modelgewichten (die zijn open) en niet de infrastructuur (die is commodity). De gracht is de opgebouwde, met toestemming gegeven, constitutioneel bestuurde professionele kennis van een gemeenschap die bezit wat ze bouwt.
Een concurrent kan hetzelfde basismodel downloaden. Een concurrent kan niet een netwerk repliceren van een miljoen professionals die jarenlang gestructureerde expertkennis hebben bijgedragen onder constitutioneel bestuur, met toestemming geregistreerd, herroepbaar en auditeerbaar.
De data waren altijd van ons. Wij bouwen de architectuur die dat zo houdt.
Het argument in één zin: Our One AI is domeinexpert-kunstmatige intelligentie, getraind door de professionals wiens expertise AI waardevol maakt, constitutioneel hun eigendom, gebouwd op volledig open infrastructuur, concurrerend niet op schaal maar op de kwaliteit van kennis die geen enkele hoeveelheid webschraping kan repliceren.
Dat is wat we bouwen. De architectuur is gepubliceerd. De economie is gepubliceerd. De Grondwet is gepubliceerd. De code is openbaar. U kunt elke claim op deze pagina verifiëren.
Het venster om het alternatief te bouwen — waar professionele kennis in handen blijft van de mensen die haar creëerden — staat nu open. De labs halen rondes op en sluiten het.
Sluit u aan bij Our One — 1¢/dag →
Lees verder: AI Stake Systeem · AI Constitution · Platform Grondwet · Our One AI · Platform Stake