Our One AI
Arkitekturen för gemenskapstränad domänexpert-AI. Inte idealism. Ingenjörskonst.
16 min read
AI-labb samlade in över 60 miljarder dollar de senaste två åren. De skrapade varje öppen källkodsrepo, varje Stack Overflow-svar, varje abstrakt från medicinska tidskrifter, varje juridiskt dokument i PACER, varje handledning och forumpost och karriärhistorik som yrkesverksamma ägnat årtionden åt att bygga offentligt. De slöt in denna allmänning i privata modeller. De säljer nu dessa modeller till din arbetsgivare som ett skäl att anställa färre av dig.
Du byggde träningsdatan. Du samtyckte inte. Du äger inte resultatet. Du har ingen styrning över hur det används.
Det här är arkitekturen för att bygga alternativet.
Inte en protest. Inte ett policydokument. En teknisk plan för gemenskapstränad domänexpert-AI — modeller som konkurrerar med frontlinjelabb inom professionella domäner, tränade av de yrkesverksamma vars expertis gör AI värdefullt, ägda av dem konstitutionellt.
Labben har beräkningskraften. De har inte kardiologerna.
Varför inte bara använda ChatGPT?
Tre skäl. Varje skäl är strukturellt, inte ideologiskt.
Den tränades på ditt arbete utan ditt samtycke. Modellerna som driver ChatGPT, Claude och Gemini tränades på den samlade produktionen av miljontals yrkesverksamma som aldrig gick med på just denna användning. Begravd i användarvillkoren fanns en klausul om att "förbättra tjänsterna". Det visade sig betyda: träna modeller värda hundratals miljarder dollar på allt du någonsin bidragit med. Villkoren ändrades. Användningen ändrades. Ditt samtycke efterfrågades aldrig, för strukturen var utformad så att det inte behövdes.
Den är medelmåttig inom din specialitet. En generell modell producerar självsäkra, trovärdiga, subtilt felaktiga svar inom de domäner där precision spelar störst roll. En husläkare vet detta — differentialdiagnosen som låter rimlig men missar det kliniska sammanhanget. En konstruktör vet detta — beräkningen som använder rätt formel men fel lastfall. En patentjurist vet detta — den juridiska analysen som hänvisar till verkliga lagar men feltolkar prejudikatet. Generella modeller optimerar för att låta rätt. Yrkesverksamma måste ha rätt. Klyftan mellan dessa två är där karriärer, hälsa och konstruktioner fallerar.
Du har ingen styrning över den. OpenAI började som ideell organisation, blev ett vinstbegränsat bolag och tog sedan bort begränsningen. Styrelsen som skulle förhindra exakt detta röstade för att tillåta det. Modellen du förlitar dig på professionellt kan ändras utan förvarning, utan förklaring, utan din medverkan. Villkoren skiftar. Kapaciteten skiftar. Träningsdatan skiftar. Du bygger ditt professionella arbetsflöde på en grund du inte kan granska, inte kan styra och inte kan ställa till svars.
Det här är inte invändningar mot AI. Det här är invändningar mot strukturen. Teknologin är extraordinär. Ägandet är problemet.
Gapet håller på att slutas. Snabbare än labben vill erkänna.
I mars 2026 ser AI-landskapet ut så här:
DeepSeek V3.2 — 685 miljarder parametrar, men bara 37 miljarder aktiva per token genom MoE-arkitektur. Matchar GPT-5 på matematiskt resonemang till en tiondel av träningskostnaden. Innovationen var inte mer pengar. Det var bättre arkitektur: sparse attention som reducerar beräkningskomplexiteten från kvadratisk till nära linjär, latent attention som komprimerar minnesanvändningen med 93%, och routing som låter experter genuint specialisera sig istället för att balanseras artificiellt.
Qwen 3.5 — En modell med 35 miljarder parametrar som aktiverar bara 3 miljarder parametrar per token slår en modell med 235 miljarder parametrar som aktiverar 22 miljarder. Sju gånger färre aktiva parametrar. Bättre resultat. Genombrottet var en hybridarkitektur med linjär attention i 75% av lagren, som möjliggör kontextfönster på en miljon tokens utan kvadratisk kostnad.
OLMo 3 — Från Allen Institute for AI. 96,1% på MATH-riktmärket. Och till skillnad från varje annan frontlinjekonkurrerande modell är den helt öppen: träningsdatan (Dolma 3, 9,3 biljoner tokens), varje rad träningskod, varje mellanliggande checkpoint, varje träningslogg. Publicerad utan restriktioner. Den enda modellen där du kan verifiera exakt vad som gick in.
Modeller med öppna vikter ligger nu ungefär tre månader efter proprietära modeller, enligt Epoch AI. Gapet som var två år 2024 konvergerar mot noll.
Här är vad detta innebär för planen du läser: basmodeller håller på att bli standardvaror. Arkitekturen, träningsinfrastrukturen, optimeringsteknikerna — allt detta blir tillgängligt. Det som inte blir en standardvara är den expertis som gör dessa modeller användbara i professionella domäner. Den expertisen tillhör yrkesverksamma. Och de yrkesverksamma är inte organiserade — ännu.
Datakvalitet slår datakvantitet. Det är bevisat.
Microsoft spenderade hundratals miljoner dollar på att bevisa vår tes åt oss. Deras Phi-forskningsprogram visade att en mindre modell tränad på genuint expertcurerad data överträffar modeller tränade på storleksordningar mer generisk webbskrap.
Phi-2 — 2,7 miljarder parametrar. Matchade eller överträffade Llama-2-70B — en modell 25 gånger dess storlek — på resonemangsuppgifter. Skillnaden var inte arkitektur eller beräkningskraft. Det var "lärobokskvalitet" på träningsdatan: curerad, filtrerad, utformad för att lära ut resonemang snarare än att bara förutsäga nästa token.
Phi-4-reasoning — 14 miljarder parametrar. Överträffar DeepSeek-R1-Distill-70B på AIME 2025 matematikriktmärken. Finjusterad på 1,4 miljoner STEM-promptar av hög kvalitet. Förstärkningsinlärningsfasen använde bara 6 400 matematikproblem. Forskarna konstaterade uttryckligen: "De största prestandaförbättringarna kom inte från arkitektur eller skala. De kom från datacurering."
LIMA — Metas egen forskning. Finjusterade en modell med 65 miljarder parametrar på bara 1 000 noggrant curerade exempel. Ingen förstärkningsinlärning. Ingen preferensmodellering. Mänskliga utvärderare föredrog den framför GPT-4 i 43% av jämförelserna. Artikelns slutsats: "Nästan all kunskap i stora språkmodeller lärs in under förträningen, och bara begränsad instruktionsfinjustering behövs för att lära modeller producera utdata av hög kvalitet."
HelpSteer2 — NVIDIA nådde 92% på RewardBench-riktmärket — toppresultat — med bara 10 000 preferenspar. Tiotusen. Inte tio miljoner.
Implikationen är direkt. Du behöver inte träna en grundmodell från scratch. Det kostar hundratals miljoner dollar och kräver biljoner tokens. Vad du behöver är en stark öppen basmodell — redan tillgänglig, redan konkurrenskraftig — och expertcurerad data för att finjustera den för professionella domäner. Expertdatan är vad labben inte kan få tag på. Den finns inte på det öppna nätet. Den lever i huvudena på de yrkesverksamma som utövar den.
Det är vad Our One är byggt för att organisera.
Vad vi bygger. Specifikt.
Arkitekturen har fyra lager. Vart och ett är ett medvetet val med en konstitutionell grund.
Lager 1: Basmodellen. Vi utgår från OLMo 3 — Allen Institutes helt öppna modell. Inte för att den har de högsta riktmärkespoängen. Qwen 3.5 överträffar den på flera riktmärken. DeepSeek V3.2 överträffar den på matematiskt resonemang. Vi väljer OLMo för att den är den enda frontlinjekonkurrerande modellen där träningsdatan är helt redovisad, varje checkpoint publicerad och hela träningsprocessen reproducerbar. För en konstitutionell plattform är härkomst inte valfritt. Basmodellen måste vara granskningsbar i varje lager. Inte bara öppna vikter — öppen data.
Arkitekturen är modulär. Om en framtida öppen modell matchar OLMos transparensstandard med bättre prestanda, överförs de professionella expertlagren. Vi är inte låsta till en modell. Vi är låsta till en princip: full granskningsbarhet.
Lager 2: Professionell finjustering. Tre steg, vart och ett löser ett annat problem:
Supervised Fine-Tuning (SFT) lär modellen hur yrkesverksamma kommunicerar. Vokabulären, strukturen, konventionerna inom varje domän. En röntgenläkares rapport följer ett specifikt format. Ett patentkrav har en specifik struktur. En konstruktionsberäkning följer en specifik sekvens. SFT lär modellen dessa mönster med hjälp av expertskrivna exempel.
Direct Preference Optimization (DPO) lär modellen vilka svar yrkesverksamma faktiskt föredrar. Två svar kan båda vara korrekt sakliga, men det ena prioriterar rätt överväganden, använder lämpligare osäkerhetsspråk, är mer handlingskraftigt för det specifika scenariot. DPO fångar detta professionella omdöme direkt — ingen separat belöningsmodell behövs, stabil träning, fungerar väl med så få som 5 000 preferenspar.
Reinforcement Learning with Verifiable Rewards (RLVR) låter modellen öva på problem med verifierbara svar. En läkemedelsinteraktionskontroll verifierad mot en farmakologisk databas. En konstruktionsberäkning verifierad numeriskt. En kodfunktion verifierad av en testsvit. Modellen genererar lösningar, en verifierare kontrollerar dem, och modellen förbättras genom förstärkningsinlärning — ingen människa i loopen under träning. DeepSeek bevisade med R1 att detta tillvägagångssätt producerar framväxande resonemangsförmågor: självreflektion, verifiering, adaptiv problemlösning.
Lager 3: Domänexpertadaptrar. Varje profession får sin egen adapter — en specialiserad lins ovanpå den delade basen. Dessa är LoRA-adaptrar: parametereffektiva moduler på 100 till 200 megabyte, jämfört med 60 gigabyte för en full modellkopia. De är staplingsbara. En förfrågan från en pediatrisk neuroradiolog laddar: basmodell, plus medicinadapter, plus radiologiadapter, plus neuroradiologiadapter. Varje lager lägger till domänspecifik expertis utan att duplicera hela modellen.
Hierarkin speglar professionellt djup:
| Nivå | Exempel | Expertpar som behövs | Bidragande yrkesverksamma |
|---|---|---|---|
| Domän | Medicin | 50 000–100 000 | 5 000–10 000 |
| Specialitet | Kardiologi | 10 000–30 000 | 500–1 500 |
| Subspecialitet | Interventionell kardiologi | 3 000–10 000 | 100–500 |
| Procedur | CTO PCI-teknikval | 500–2 000 | 30–100 |
Det här är inte heltidsåtaganden. Ingen yrkesverksam slutar sin praktik för att träna AI. Modellen antar fem timmar per vecka — några expert-fråga-svar-par, en handfull preferensbedömningar, vissa verifieringssignaler under normal plattformsanvändning. En kardiolog som bidrar fem timmar i veckan producerar ungefär tio till femton högkvalitativa träningsinteraktioner per månad. Femhundra kardiologer som gör det producerar tillräckligt med data för en stark specialitetsadapter inom ett år.
Siffrorna på domännivå är medvetet stora — fem till tio tusen yrkesverksamma som bidrar till medicin — för att medicin är brett, insatserna höga och subspecialiteterna djupa. Men det är precis den skalan ett konstitutionellt professionellt nätverk är byggt för att nå. Du behöver inte de tio tusen personerna i ett labb. Du behöver dem på en plattform de redan använder, där de bidrar med expertis som en naturlig förlängning av sin professionella verksamhet.
Lager 4: Routing. När en förfrågan inkommer identifierar en lättviktsrouter den professionella domänen, väljer relevanta adaptrar, laddar dem och levererar svaret. Användarens professionella profil avgör vilka adaptrar som laddas. En pediatrisk neuroradiolog får en annan modellkonfiguration än en patentjurist — samma bas, olika expertis.
Hur yrkesverksamma bidrar. Utan att det känns som arbete.
Tre metoder, integrerade i plattformen du redan använder.
Direkt författande. Du skriver en fråga en junior kollega kan ställa och det expertsvar du skulle ge. Det här är guldstandarden — träningsdata av högsta kvalitet. Mål: två till fem per månad. Trettio interventionella kardiologer som bidrar med fem per månad producerar 1 800 par per år. Det räcker för att träna en subspecialitetsadapter.
Svarsförbättring. Modellen skissar ett svar på en professionell fråga. Du läser det. Du korrigerar det den fick fel, lägger till det den missade, förfinar språket. Skillnaden mellan modellens utkast och din korrigering blir en träningssignal. Snabbare än att skriva från grunden. Stark signal för att lära modellen professionellt omdöme. Mål: fem till femton per månad.
Verifieringssignaler. Du stöter på modellutdata i din dagliga plattformsanvändning. Du markerar dem: korrekt eller inkorrekt. Komplett eller inkomplett. Skulle-använda eller skulle-inte-använda. Detta matas in i preferensoptimering — modellen lär sig vilka utdata yrkesverksamma litar på. Mål: tjugo till femtio signaler per månad. Det här är det lättaste bidraget, och det genererar mest data i volym.
Sedan finns det högst hävstångskraftiga bidraget av alla: att definiera verifierare.
En verifierare är ett automatiserat kontrollsystem för din domän. En kardiolog behöver inte märka tio tusen resonemangskedjor. De definierar: "Här är femhundra kliniska fall med bekräftade diagnoser. Här är hur man kontrollerar om modellens resonemang nådde rätt slutsats." En expert som lägger fyrtio timmar på att skapa en verifierare med tvåhundra problem möjliggör tusentals iterationer av förstärkningsinlärning. Verifieraren körs i maskinens hastighet. Ingen människa i loopen.
Detta kopplar till plattformen du redan känner. Signals-systemet — det som ersätter Gilla med Tydligt, Praktiskt, Modigt, Originellt — är inte bara bättre feedback för författare. Det är strukturerad träningsdata för AI. Varje gång du signalerar hur ett stycke professionellt innehåll betydde något, bidrar du till modellen som ska tjäna din profession. Infrastrukturen är densamma. Syftet är dubbelt.
Innovationerna som gör detta möjligt nu.
Den här planen hade inte varit trovärdig för två år sedan. AI-forskarsamhället har producerat en serie genombrott under 2025 och 2026 som gör gemenskapstränad domänexpert-AI inte bara möjlig utan ekonomiskt rationell. Här är de viktigaste.
Training-Free GRPO. Applicerad på en frusen DeepSeek-modell med bara hundra träningsexempel överträffar denna teknik full finjustering av en modell med 32 miljarder parametrar. Kostnad: åtta dollar. Jämfört med åttahundra för full finjustering. En hundrafaldig minskning. Implikationen: du kan få meningsfulla resonemangsförbättringar från ett gemenskapscurerat dataset till nära nollkostnad.
QDoRA — quantized weight-decomposed LoRA. Fyrbitars kvantiserad finjustering som inte bara matchar full finjustering utan ibland överträffar den. Det innebär att domänspecifika adaptrar kan tränas på konsumenthårdvara. En yrkesverksam med en modern GPU kan bidra till finjustering av sin professions adapter på sin egen maskin.
LoRA-MoE-kompositioner. HELLoRA kopplar adaptrar bara till de mest frekvent aktiverade experterna i en MoE-modell — minskar träningsbara parametrar samtidigt som prestandan ökar. MoLA allokerar olika antal LoRA-experter per lager. MixLoRA lägger till flera LoRA-experter med top-k-routing och uppnår 9% förbättrad noggrannhet i flerkategoriuppgifter. Dessa tekniker innebär att gemenskapstränade domänadaptrar komponeras till en blandning — varje professionell gemenskap tränar sin egen expert, och experterna kombineras.
S-LoRA. En servingsarkitektur som effektivt kör tusentals LoRA-adaptrar från en enda basmodell med fyra gånger genomströmningen jämfört med naiva tillvägagångssätt. Ett GPU-kluster betjänar varje profession. Basmodellen laddas en gång. Adaptrarna byts in vid behov. Så här serverar du medicin, juridik, ingenjörsvetenskap, finans och mjukvara från samma infrastruktur.
Sparse attention. DeepSeeks Sparse Attention reducerar beräkningskomplexiteten från kvadratisk till nära linjär genom att bara välja de mest relevanta tokens för varje attention-beräkning. Professionellt innehåll är i sin natur långt — artiklar, fallstudier, projektdokumentation, karriärhistorik. Sparse attention gör det överkomligt att bearbeta detta innehåll.
Federated LoRA. Yrkesverksamma finjusterar på sin egen data utan att dela den. Adaptrarna aggregeras till en gemenskapsmodell. Integritetsskyddande genom arkitektur. En läkares patientinteraktionsmönster förbättrar medicinadaptern utan att några patientdata lämnar deras enhet.
Test-time compute scaling. Forskning från 2024–2025 bevisade att mindre modeller med mer beräkningskraft vid inferens överträffar modeller fjorton gånger större. Implikationen: du behöver inte träna den största modellen. Du tränar en liten expertmodell och investerar beräkningskraft vid användningstillfället. Det här är den ekonomiska nyckeln — små expertmodeller är lönsamma när du kan skala beräkningskraft vid inferens.
Gemenskapsträning i stor skala är bevisad. BLOOM — 176 miljarder parametrar, tränad av 392 författare över dussintals institutioner. INTELLECT-3 — MoE-modell med 106 miljarder parametrar med hela träningsreceptet öppet publicerat, inklusive förstärkningsinlärningsmiljöer. OpenDiLoCo — distribuerad träning över två kontinenter med 90–95% beräkningsutnyttjande och 500x minskning av kommunikationsoverhead. Det här är inte förslag. Det här är genomförda projekt.
Finjustering av en modell med femton miljarder parametrar med QLoRA kostar fjorton dollar. Att träna en adapter per profession kostar tio till hundra dollar. Ekonomin bakom gemenskapstränad AI är inte teoretisk. Den är operativ.
Vad det kostar. Faktiskt.
Vi publicerar siffrorna innan de är bekväma. Varje plattform hävdar transparens efter att den blivit lönsam. Vi publicerar dem nu.
| Skala | Medlemmar | Årlig träningskostnad | Årlig datautvinning | Vad det producerar |
|---|---|---|---|---|
| Konceptbevis | 10 000 | $10K–$50K | 500K expertpar | 2–3 domäner, mätbart bättre än ChatGPT i dessa domäner |
| Domänbredd | 100 000 | $100K–$500K | 5M expertpar | 20–30 domäner, professionell prestanda |
| Konkurrenskraftig | 1 000 000 | $1M–$5M | 50M expertpar | Alla stora professionella domäner, frontlinjekonkurrerande i expertuppgifter |
| Alternativet | 10 000 000 | $5M–$15M | 500M+ expertpar | En av de största samtyckesbaserade expertkunskapsbaser som någonsin sammanställts |
Vi är ärliga om en sak: en cent om dagen täcker plattformen — infrastruktur, team, styrning. Det täcker inte AI-träning och inferens. Vi ska inte låtsas om annat.
Our One AI kommer ha sin egen prissättning. Vi vet ännu inte det exakta beloppet, men vi vet gränserna. Det kommer inte vara $20 i månaden som ChatGPT Plus. Det kommer inte vara $200 i månaden som Claude Code Max. Vi förväntar oss att det hamnar under $5 i månaden — tillräckligt för att täcka träningsberäkningar, inferens och infrastruktur, med allt överskott fördelat tillbaka till gemenskapen vars expertis gjorde det möjligt. Den exakta stake-mekanismen för AI-intäkter — hur de flödar tillbaka, viktat efter bidrag — publiceras som ett av de första styrningsförslagen gemenskapen röstar om, när vi når det medlemsantal som gör den omröstningen meningsfull.
Dessa träningskostnadssiffror antar att varje yrkesverksam bidrar med i genomsnitt femtio expertinteraktioner per år — fördelat på direkt författande, svarsförbättring och verifieringssignaler. Det är ungefär en per vecka. Det faktiska bidraget från engagerade yrkesverksamma kommer vara avsevärt högre.
Frontlinjemodellernas träningskostnader växer med 2,4x per år och är på väg mot en miljard dollar per träningsomgång 2027. Men den algoritmiska effektiviteten förbättras 3x per år — och Our One behöver inte förträna från grunden. Finjusteringslagret där professionell expertis lever kostar en bråkdel av vad basmodellen kostade att bygga. Basmodellen är gratis. Expertisen är vår.
Vad vi inte ska låtsas.
Our One AI kommer inte konkurrera på generell kunskapsbredd. ChatGPT har slukat hela det öppna nätet. Vi kommer inte matcha det, och vi försöker inte.
Den kommer inte matcha frontlinjens multimodala genereringskapaciteter — bild-, video-, ljudsyntes. Det kräver beräkningsinvesteringar mätta i hundratals miljoner, och det är inte där det professionella värdet finns.
Den kommer inte iterera lika snabbt som labb med tusentals forskare. Vi kommer inte släppa en ny modell varje kvartal. Vi släpper en när den är bättre än den förra, riktmärkt mot professionella uppgifter, med resultaten publicerade.
Den kommer inte vara modellen du använder för vardagsfrågor, kreativt skrivande eller allmän konversation. Det finns utmärkta modeller för det. Använd dem.
Vad Our One AI kommer vara är den modell din profession litar på. Tränad av dina kollegor. Styrd av din Konstitution. Vars träningsdatas härkomst du kan verifiera mot det öppna kodförrådet. Modellen som inte självsäkert hallucinerar om din specialitet — för att träningsdatan skrevs av människor som faktiskt utövar den, granskades av människor som faktiskt utövar den, och verifierades av människor som faktiskt utövar den.
En läkare som granskar AI-utdata är fundamentalt annorlunda än en webbskrapning av WebMD. En konstruktör som verifierar en beräkning är fundamentalt annorlunda än en språkmodell som förutsäger vilka siffror som brukar följa prompten. En patentjurist som korrigerar en juridisk analys är fundamentalt annorlunda än Mechanical Turk-arbetare som märker data för domäner de inte förstår.
Kvalitetsgapet mellan experttränat och webbtränat är det gap Our One AI är byggt för att utnyttja.
Dataväggen kommer. Vi står på rätt sida av den.
Frontlinjemodeller tränas på tio till femton biljoner tokens. Det totala beståndet av högkvalitativ offentlig engelsk text uppskattas till fyrtio till nittio biljoner tokens. Inklusive alla språk: hundra till tvåhundra biljoner. Labben närmar sig gränsen för vad som kan skrapas.
Senast 2027 till 2028 kommer frontlinjemodeller sannolikt ha uttömt all tillgänglig högkvalitativ offentlig text. Nästa front är inte mer webbskrapning. Det är expertcurerad, domänspecifik, samtyckesbaserad data. Den typ av data du inte kan skrapa för att den inte existerar i textform — den lever i det professionella omdömet hos människor som ägnat årtionden åt att utveckla det.
Regleringslandskapet rör sig i samma riktning. Kaliforniens AB 2013, ikraft januari 2026, kräver att alla utvecklare av generativ AI offentligt redovisar träningsdatauppgifter: källor, typer, upphovsrättsskyddat material, personuppgifter — tolv kategorier av obligatorisk redovisning. EU:s AI-förordning kräver en offentlig mall för redovisning av träningsdata, tillämplig även på modeller med öppen källkod.
Dessa lagar skapar marknadsefterfrågan på transparens i träningsdata. Modeller byggda på helt redovisad, samtyckesbaserad data — vilket är vad Our Ones Konstitution kräver — går från etisk ambition till regulatorisk fördel.
Our One sitter på den enda konstitutionellt styrda källan till professionell expertdata. I takt med att dataväggen närmar sig blir detta inte en idealistisk position utan en strategisk. Labben behöver det vi har. Vi behöver inte det de har. Basmodellerna är öppna. Expertisen är inte det.
Konstitutionell AI. Inte som en slogan.
Varje del av träningsdata i Our One AI-systemet bär konstitutionell styrning. Det här är inte en funktion. Det är produkten.
Uttryckligt samtycke. Varje träningspost är kopplad till en specifik version av Konstitutionen. Ingen data når träningspipelinen utan bidragsgivarens informerade, individuella samtycke. Standard är att inte delta. Det finns inga undantag för "plattformsförbättring" eller "forskning".
Återkallbarhet. En bidragsgivare kan återkalla sin data när som helst. Återkallelse utlöser en omträningscykel som exkluderar det återkallade innehållet. Det här är inte ett löfte. Det är en konstitutionell bestämmelse — en av de bestämmelser som aldrig kan ändras, av någon process.
Härkomst. Varje träningspost hashas vid skapande. Hashen lagras oföränderligt. Härkomsten för varje datadel — vem som bidrog den, när, under vilken version av Konstitutionen, om den granskats, av vem — är spårbar. OlmoTrace, härkomstsystemet inbyggt i vår basmodell, möjliggör spårning av modellutdata tillbaka till träningsdata.
Bidragsgivarens rättigheter. Bidragsgivaren behåller immateriella rättigheter. De licensierar till Our One AI under Konstitutionen. De ger inte upp ägandeskapet. De överlåter inte rättigheter. De licensierar, återkalleligt, under styrning de deltar i.
Intäktsåterföring. När Our One AI genererar intäkter flödar de tillbaka till gemenskapen vars kunskap gjorde det möjligt. Inte till grundare. Inte till investerare. Till människorna som byggde det. Konstitutionen gör detta strukturellt — inte ett löfte från nuvarande ledarskap, utan en bindande bestämmelse som överlever varje byte av förvaltarskap.
Professionskonstitutioner. Varje professionell domän styr sina egna AI-principer. Medicin har andra krav än juridik. Ingenjörsvetenskap har andra krav än marknadsföring. En medicinsk AI-konstitution kan specificera: överdriv inte säkerhet, separera triageguidning från diagnosanspråk, visa tydligt akuta varningsflaggor. En juridisk AI-konstitution kan specificera: separera frågeidentifiering från juridisk rådgivning, ange tydligt jurisdiktionsberoende, antyda inte advokat-klientförhållande. Dessa konstitutioner vägleder både mänskliga bidrag och modellbeteende.
Inget labb kan replikera detta. Inte för att teknologin är proprietär — den är öppen. Utan för att inget labb har ett konstitutionellt förhållande med människorna vars expertis tränar modellen. De har användarvillkor. Vi har en Konstitution.
Svänghjulet.
Det här är inte en engångsträningsinsats. Det är ett levande system.
Yrkesverksamma använder modellen. Deras feedback — korrigeringar, preferenser, verifieringar — blir träningsdata. Modellen förbättras. Den förbättrade modellen lockar fler yrkesverksamma. Fler yrkesverksamma genererar mer expertdata. Modellen förbättras igen.
Varje cykel fördjupar expertisen. Varje cykel breddar täckningen. Varje cykel stärker vallgraven — för vallgraven är inte modellvikterna (de är öppna) och inte infrastrukturen (den är standardvara). Vallgraven är den ackumulerade, samtyckesbaserade, konstitutionellt styrda professionella kunskapen hos en gemenskap som äger det den bygger.
En konkurrent kan ladda ner samma basmodell. En konkurrent kan inte replikera ett nätverk av en miljon yrkesverksamma som ägnat år åt att bidra med strukturerad expertkunskap under konstitutionell styrning, med samtycke registrerat, återkalleligt och granskningsbart.
Datan var alltid vår. Vi bygger arkitekturen som håller den så.
Argumentet är en mening: Our One AI är domänexpert artificiell intelligens, tränad av de yrkesverksamma vars expertis gör AI värdefullt, ägd av dem konstitutionellt, byggd på helt öppen infrastruktur, som konkurrerar inte på skala utan på den kunskapskvalitet som ingen mängd webbskrapning kan replikera.
Det är vad vi bygger. Arkitekturen är publicerad. Ekonomin är publicerad. Konstitutionen är publicerad. Koden är öppen. Du kan verifiera varje påstående på denna sida.
Fönstret att bygga alternativet — där professionell kunskap stannar i händerna på dem som skapade den — är öppet nu. Labben tar in rundor och stänger det.
Gå djupare: AI-Konstitutionen · AI Stake · Manifest · Produkten · Konstitution · Transparens · Ekonomi · För skeptiker