De AI-Grondwet
Deel I ongewijzigd overgenomen. Deel II: de bindende regels voor door de gemeenschap getrainde AI.
10 min read
Versie 0.1 — Concept ter Gemeenschapsratificatie — Maart 2026
Dit is het tweede constitutionele document in het Our One-raamwerk.
Het eerste — de platformgrondwet — beschermt u als lid. Het bestuurt uw identiteit, uw feed, uw berichten, uw data. Dit document beschermt u als bijdrager — een professional wiens expertise de AI traint die uw beroepsgroep bedient.
Als u de platformgrondwet niet hebt gelezen, lees die eerst. Dit document bouwt erop voort. Het neemt Deel I ongewijzigd over en definieert een eigen Deel II — de regels specifiek voor Our One AI.
Dit is Versie 0.1. Een concept. Gepubliceerd voordat het product lanceert, omdat de Grondwet dat vereist: "Elk Our One-product publiceert zijn grondwet voor de lancering — niet nadat het een machtspositie heeft, niet nadat gebruikers ervan afhankelijk zijn, maar ervoor, wanneer bindende verplichtingen iets kosten om aan te gaan."
De principes in dit document zijn bindend. De parameters — inkomstenpercentages, vervalsnelheden, bijdragegewichten — zijn initiële voorstellen, onderworpen aan gemeenschapsratificatie via het bestuursproces dat hieronder is gedefinieerd. Wanneer de bijdragersgemeenschap groot genoeg is om dat bestuur betekenisvol te maken, behoren deze tot de eerste voorstellen waarover u stemt.
Deel I — Universele Principes
Ongewijzigd overgenomen uit de platformgrondwet.
De vijf Universele Principes zijn zonder wijziging van toepassing op Our One AI:
- Menselijke kennis is een meent.
- Eigendom is 100%.
- Een grondwet komt voor het product.
- Beheerders dienen. Ze bezitten niet.
- Anti-capture is structureel, niet persoonlijk.
Deze kunnen niet worden gewijzigd door het bestuursproces van Our One AI alleen. Wijziging vereist cross-community ratificatie door alle actieve Our One-producten. De volledige tekst staat in de platformgrondwet.
Deel II — AI-Regels
Deze besturen Our One AI: door de gemeenschap getrainde domeinexpert-kunstmatige intelligentie. Ze mogen worden gewijzigd via het proces gedefinieerd in Sectie 12. Ze mogen niet in strijd zijn met Deel I.
6. Waarvoor dit product dient.
Our One AI bestaat om domeinexpert-kunstmatige intelligentie te bouwen — getraind door de professionals wiens expertise AI waardevol maakt, bestuurd door hen, constitutioneel hun eigendom.
Geen generieke AI. Geen chatbot. Geen vervanging voor de mogelijkheid van ChatGPT om gedichten te schrijven of Wikipedia-artikelen samen te vatten. Domeinexpert-AI die beter is dan frontier-modellen in de specifieke gebieden waar professionele nauwkeurigheid ertoe doet — omdat het getraind is door de mensen die het daadwerkelijk beoefenen, beoordeeld door de mensen die het daadwerkelijk beoefenen, en geverifieerd door de mensen die het daadwerkelijk beoefenen.
Het doel is niet een product bouwen en het verkopen. Het doel is aantonen dat de mensen die de kennis creëerden waarvan AI afhankelijk is, eigenaar kunnen zijn van de AI die ervan afhankelijk is. Het platform organiseert die mensen. Dit product organiseert hun expertise.
7. Waar elke bijdrager recht op heeft.
Toestemming is expliciet, individueel en herroepbaar. Geen trainingsdata komt het systeem in zonder uw geïnformeerde toestemming. De standaard is opt-out. U kunt uw bijdragen op elk moment intrekken. Intrekking triggert uitsluiting uit volgende trainingsruns. Dit is geen belofte. Het is een bepaling die niet kan worden gewijzigd, nooit, door welk proces dan ook dat in dit document is gedefinieerd.
Uw intellectueel eigendom blijft van u. U licentieert uw bijdragen aan Our One AI onder deze Grondwet. U draagt geen eigendom over. U behoudt alle rechten op uw expertise. U mag dezelfde kennis elders gebruiken, publiceren of licentiëren zonder beperking. U geeft ons niet uw kennis. U laat de gemeenschap ervan leren, onder regels die u hebt gelezen voordat u instemde.
Herkomst is onveranderlijk. Elke bijdrage wordt gehasht bij creatie. Het register van wie wat heeft bijgedragen, wanneer, onder welke versie van deze Grondwet, of het is beoordeeld, en door wie — is permanent en traceerbaar. U kunt de afstamming auditen van alle trainingsdata die uw werk bevat. Geen bijdrage is anoniem voor het systeem, zelfs als het anoniem is voor andere bijdragers.
Inkomsten vloeien terug naar bijdragers. Wanneer Our One AI inkomsten genereert, vloeit een deel terug naar de bijdragers wiens expertise het mogelijk maakte. Niet naar oprichters. Niet naar investeerders. Naar de professionals die het bouwden. De verdeling wordt bestuurd door het AI Stake-systeem — apart gepubliceerd, onderworpen aan gemeenschapsbestuur. Het principe is constitutioneel: bijdragers worden gecompenseerd. De parameters zijn bestuur: de gemeenschap bepaalt de percentages.
Domeinbestuur. Uw beroepsgroep bestuurt zijn eigen AI. Geneeskunde bepaalt wat medische AI wel en niet mag doen. Engineering bepaalt wat engineering-AI wel en niet mag doen. Recht definieert zijn eigen beperkingen. Elk domein publiceert zijn eigen professionele AI-grondwet — onderworpen aan Deel I van dit document en Deel I van de platformgrondwet, maar verder soeverein in zijn domeinspecifieke regels.
Transparantie. U hebt het recht te weten welke data elk model heeft getraind dat uw beroepsgroep bedient. Samenstelling van trainingsdata, aantallen bijdragers, kwaliteitsmetrieken, prestatiebenchmarks — alles gepubliceerd. Geen black box. Als u een bewering over het model niet kunt verifiëren, is de bewering niet geldig.
Uitstappen. U kunt uw bijdragen intrekken en op elk moment vertrekken. Intrekking is niet punitief. Uw bijdragen worden uitgesloten uit toekomstige trainingsruns. Uw stake stopt met oplopen maar wordt niet met terugwerkende kracht gewist — inkomsten verdiend voor intrekking zijn van u. Our One AI verlaten heeft geen invloed op uw platformlidmaatschap. De twee zijn onafhankelijk.
8. Wat Our One AI nooit zal doen.
Dit zijn geen beleid. Ze veranderen niet met productupdates of commerciële druk. Ze zijn constitutioneel.
Geen training zonder toestemming. Geen bijdrage komt de trainingspipeline in zonder expliciete, individuele, herroepbare toestemming. Geen uitzonderingen voor "modelverbetering," "veiligheidsonderzoek," "evaluatie" of "platformoperaties." De standaard is opt-out. Dit herbevestigt het verbod van de platformgrondwet met AI-specifieke kracht: zelfs intern testen, zelfs benchmarken, zelfs kwaliteitsborging vereist toestemming van de bijdrager voor de gebruikte data.
Geen verkoop van trainingsdata. Bijdragerdata is geen bezit om apart van het AI-product dat het traint te gelde te maken. Het mag niet worden verkocht, gelicentieerd of overgedragen aan derden. Niet aan andere AI-labs. Niet aan overnemers. Niet aan partners. Niet aan onderzoekers. De data bestaat om een model in gemeenschapseigendom te trainen. Dat is het enige toegestane gebruik.
Geen ondoorzichtige modellen. Elk model dat onder het Our One AI-merk wordt aangeboden, moet auditeerbaar zijn: identiteit van het basismodel, herkomst van trainingsdata, adaptersamenstelling, prestatiebenchmarks. Als het niet kan worden geaudit, kan het niet worden aangeboden. Wij deployen geen modellen waarvan de trainingsafstamming onbekend of niet verifieerbaar is.
Geen valse expertise. Our One AI zal zichzelf niet presenteren als vervanging voor professioneel oordeel. Het zal duidelijk zijn betrouwbaarheidsniveau vermelden, de basis van de trainingsdata, en de beperkingen van de domeindekking. Het zal geen kwalificaties impliceren die het niet heeft. Een model getraind door cardiologen is een hulpmiddel voor cardiologen — geen cardioloog.
Geen concentratie van AI-bestuur. Geen enkele bijdrager, domein of cohort mag permanent bestuursautoriteit houden over het AI-systeem. Bestuur roteert. Stake vervalt. Nieuwe bijdragers verdienen stem. Het systeem is zo ontworpen dat vroeg voordeel na verloop van tijd afneemt — niet om vroege bijdragers te straffen, maar om capture te voorkomen. De specifieke mechanismen zijn gedefinieerd in het AI Stake-systeem. Het principe is constitutioneel.
Geen private toe-eigening van AI-bezittingen. De getrainde adapters, de trainingsdata, de bijdragersregisters en het stake-register zijn gemeenschapseigendom. Ze mogen niet worden verkocht aan een private overnemer zonder gemeenschapsratificatie. Geen transactie die door de gemeenschap getrainde AI omzet in privaat kapitaal is geldig zonder het proces gedefinieerd in Sectie 12.
Geen gesloten basismodel. Our One AI moet altijd gebouwd zijn op een volledig open basismodel — open weights, open trainingsdata, open trainingscode. Als geen beschikbaar open model aan onze transparantiestandaard voldoet, dragen wij bij aan het bouwen ervan. Wij gebruiken geen propriëtaire basismodellen, ongeacht prestatievoordeel. Auditeerbaarheid is niet optioneel. Het is constitutioneel.
9. Principes van inkomstenverdeling.
Inkomsten zijn de toets van elke belofte. Hier is hoe het werkt — in principe. De specifieke percentages zijn bestuursvoorstellen, geen constitutionele bepalingen. De gemeenschap stelt ze vast. Wat constitutioneel is, is de structuur.
Surplus vloeit terug naar bijdragers. Nadat infrastructuur, rekenkracht en beheerderskosten zijn gedekt, vloeit het inkomstensurplus terug naar de professionals wiens expertise het genereerde. Dit is geen vrijgevigheid. Het is de constitutionele consequentie van 100% eigendom.
Bijdrage wordt gewogen op kwaliteit, niet op volume. Honderd inzendingen van lage kwaliteit wegen niet op tegen tien door experts geverifieerde, modelverbeterende bijdragen. Het AI Stake-systeem definieert hoe kwaliteit wordt gemeten. Het constitutionele principe is dat kwaliteit meer telt dan kwantiteit.
Er bestaat een solidariteitsmechanisme. Geen domein is een eiland. Een deel van domeinspecifieke inkomsten vloeit naar de bredere Our One AI-commons — zodat professionals die bijdragen aan domeinen met kleinere markten nog steeds profiteren van het collectieve succes van het ecosysteem. Het constitutionele principe is solidariteit. Het percentage is bestuur.
Infrastructuurkosten worden eerlijk gepubliceerd. Het deel dat rekenkracht, training, inferentie, ontwikkeling en operaties dekt, wordt elk kwartaal gepubliceerd met volledige kostenspecificatie. Als dit deel surplus genereert, vloeit het surplus terug naar bijdragers. Er is geen verborgen marge. Er is geen extractiepremie.
Beheerders ontvangen geen aandelenbelang of winstdeelname in AI-inkomsten buiten hun gepubliceerde compensatie. Dit weerspiegelt de platformgrondwet. De mensen die het systeem bouwen en onderhouden, worden competitief betaald. Ze bezitten niet wat ze onderhouden.
10. Databestuur.
Alle trainingsdata wordt opgeslagen in een gecentraliseerd, auditeerbaar systeem. Geen blockchain — een database met onveranderlijke auditlogs. We kozen hiervoor omdat het eenvoudiger, sneller en eerlijker is dan doen alsof een gedistribueerd grootboek bestuursproblemen oplost die menselijk oordeel vereisen.
Elk trainingsrecord bevat:
- Bijdrager-ID — gekoppeld aan een geverifieerd professioneel profiel
- Tijdstempel — wanneer de bijdrage is gedaan
- Toestemmingsversie — welke versie van deze Grondwet actief was toen toestemming werd gegeven
- Peer review-status — of het is beoordeeld, door wie, en het resultaat
- Kwaliteitsniveau — niet-geverifieerd, peer-geverifieerd, modelprestatie-geverifieerd, of herroepen
- Domeinclassificatie — tot welk(e) professioneel domein(en) de bijdrage behoort
- Hash — onveranderlijk, berekend bij creatie, manipulatiebestendig
Bijdragers kunnen hun eigen bijdragegeschiedenis te allen tijde opvragen — elk record, elke beoordeling, elk verdiend stake-credit.
Geaggregeerde statistieken — bijdragen per domein, kwaliteitsverdelingen, aantallen bijdragers, modelprestatiebenchmarks — worden elk kwartaal gepubliceerd. Individuele bijdragedetails zijn privé voor de bijdrager, tenzij deze ervoor kiest ze openbaar te maken.
11. Professionele domeingrondwetten.
Wanneer een professioneel domein een bestuursdrempel bereikt — initieel voorstel: 100 actieve geverifieerde bijdragers — mag het een eigen professionele AI-grondwet opstellen en ratificeren.
Domeingrondwetten moeten Deel I van de platformgrondwet en Deel I van deze AI-Grondwet ongewijzigd overnemen. Binnen die beperkingen zijn ze soeverein in hun domeinspecifieke regels.
Een domeingrondwet definieert:
- Kwaliteitsstandaarden — wat telt als een geldige bijdrage in dit domein
- Verboden output — wat het model nooit mag zeggen of impliceren in dit domein
- Verificatievereisten — welke kwalificaties of peer-validatie nodig zijn om bij te dragen
- Ethische beperkingen — domeinspecifieke grenzen aan AI-gedrag
Voorbeelden van wat domeingrondwetten zouden kunnen specificeren:
Een medische AI-grondwet zou kunnen vereisen: Overdrijf diagnostische zekerheid niet. Scheid triage-advies van diagnostische claims. Maak nood-red flags altijd zichtbaar. Vermeld wanneer een vraag de trainingsdiepte van het model overschrijdt.
Een juridische AI-grondwet zou kunnen vereisen: Scheid issue spotting van juridisch advies. Vermeld duidelijk jurisdictie-afhankelijkheid. Impliceer geen advocaat-cliëntrelatie. Signaleer wanneer precedent onbeslist is.
Een engineering AI-grondwet zou kunnen vereisen: Vermeld toepasselijke codes en normen. Signaleer wanneer berekeningen veiligheidsmarges naderen. Presenteer schattingen niet als geverifieerde berekeningen. Vereis eenheden bij alle numerieke output.
Domeingrondwetten worden geratificeerd door domeinbijdragers met AI-stake-gewogen stemming, met dezelfde drempels als de platformgrondwet: tweederdemeerderheid voor constitutionele bepalingen, minimaal 30 dagen beraadslagingsperiode, volledig stemrecord gepubliceerd.
12. Hoe dit document verandert.
Kan nooit worden gewijzigd: Secties 7 en 8 in hun geheel. Het recht op toestemming. Het recht om te herroepen. Het recht op herkomst. Het recht op terugvloeiing van inkomsten. Het recht om uit te stappen. Het verbod op training zonder toestemming. Het verbod op verkoop van trainingsdata. Het verbod op ondoorzichtige modellen. Het verbod op private toe-eigening. De vereiste van een open basismodel.
Deze bepalingen bestaan juist voor het moment dat iemand een overtuigende reden heeft om ze te verwijderen. Er is geen overtuigende reden. Ze staan.
Kan worden gewijzigd, met supermeerderheid: Alle overige AI-Regels — parameters voor inkomstenverdeling, drempels voor domeinbestuur, definities van kwaliteitsniveaus, parameters van het stake-systeem — mogen worden gewijzigd door een tweederdestemming van deelnemende AI-bijdragers (gewogen naar AI-stake), met een minimale beraadslagingsperiode van 30 dagen, met het volledige stemrecord gepubliceerd.
Mag niet in strijd zijn met: Geen wijziging van Deel II mag in strijd zijn met Deel I. De Universele Principes zijn het plafond.
Elke versie van dit document wordt gearchiveerd. De volledige geschiedenis van wat is gewijzigd, wanneer en waarom maakt deel uit van het permanente register.
Our One — AI-Grondwet, Versie 0.1 Concept ter Gemeenschapsratificatie Van kracht na ratificatie door de bijdragersgemeenschap Beheerder: Rado Sukala, Oprichtend Beheerder
U hebt het gelezen. Nu kunt u bijdragen, precies wetend waaraan u bijdraagt.
Lees verder: AI Stake-systeem · Platformgrondwet · Our One AI · Platform Stake