Manifest
13 min read
Fang bei deinem Kind an. Keiner Statistik. Deinem echten Kind.
Denk an das letzte Mal, als du versucht hast, mit ihm zu Abend zu essen, und es woanders war — Blick nach unten, Daumen in Bewegung, Gesicht in diesem besonderen Ausdruck, an dem du erkennst, dass es weder glücklich ist noch aufhören kann. Denk daran, wie es mit vierzehn ist, verglichen damit, wie du mit vierzehn warst, und sei ehrlich mit dir über den Unterschied.
Das ist kein Zufall. Das ist eine technische Meisterleistung.
Eine kleine Gruppe von Menschen entschied, dass der Weg, das wertvollste Unternehmen der Menschheitsgeschichte zu bauen, darin bestand, das Produkt so schwer wie möglich aus der Hand zu legen. Nicht nützlich. Nicht erfreulich. Schwer aus der Hand zu legen. Da ist ein Unterschied. Sie kannten den Unterschied. Sie bauten in Richtung des profitableren.
Mark Zuckerberg hält 61 % der Stimmrechte bei Meta. Eine Person. Er sah, wie TikToks Algorithmus beispielloses Engagement erzeugte, indem er Inhalte servierte, die nicht dafür konzipiert waren, dich zu erfreuen, sondern dich am Aufhören zu hindern. Er kopierte es. Er tat es mit vollem Wissen über die internen Studien, die zeigten, was es mit Teenagern machte. Die Studien wurden innerhalb von Meta erstellt, von Metas eigenen Mitarbeitern, und dann beiseitegelegt.
Es gibt keine Instagram-Verfassung. Es gibt keinen Prozess, durch den Nutzer — oder ihre Eltern, oder ihre gewählten Vertreter — diese 61 % zur Rechenschaft ziehen können. Die Stimmrechtsstruktur wurde genau dafür entworfen, das zu verhindern.
Ein Mann. Ein Algorithmus. Vier Milliarden Menschen.
Das ist kein Technologieunternehmen. Das ist eine Machtstruktur mit einer Handy-App obendrauf.
Die zweite Wunde sitzt tiefer, und die meisten Menschen haben sie noch nicht klar benannt.
Dreißig Jahre lang haben Entwickler, Ingenieure, Forscher und neugierige Menschen etwas Außergewöhnliches öffentlich aufgebaut. Sie beantworteten sich gegenseitig Fragen auf Stack Overflow. Sie pushten Code auf GitHub. Sie schrieben Dokumentation, Tutorials, Blogbeiträge. Sie bauten Open-Source-Tools und verschenkten sie. Sie schufen den Linux-Kernel. Das Python-Ökosystem. React. Postgres. TensorFlow.
Sie taten es für die Allgemeinheit. Füreinander. Für die Studierenden, die danach kommen würden. Das Ethos war unmissverständlich: Das gehört uns allen, gemeinsam.
Dann kam die KI.
Vergraben in Nutzungsbedingungen, die niemand las, war eine Klausel, die es Plattformen erlaubte, Inhalte zur „Verbesserung ihrer Dienste" zu verwenden. Das bedeutete, wie sich herausstellte: Modelle zu trainieren mit allem, was du je geschrieben, je beigetragen, je gelöst und geteilt hast. Modelle, die jetzt können, was du kannst. Modelle, die deinem Arbeitgeber als Grund verkauft werden, weniger Leute wie dich einzustellen.
Du hast die Trainingsdaten gebaut. Du hast nicht zugestimmt, dass sie zum Privateigentum eines anderen werden.
OpenAIs letzte Finanzierungsrunde: 40 Milliarden Dollar. Anthropic: 10 Milliarden. xAI: 12 Milliarden. Am Fundament von all dem, unbezahlt und größtenteils ahnungslos, stehen die Millionen von Menschen, die den Code geschrieben, die Fragen beantwortet und die Allmende aufgebaut haben, die das alles erst möglich machte.
Der Deal war: Nutz das Netzwerk, gib uns deine Aufmerksamkeit.
Dann wurde daraus: Gib uns deine Aufmerksamkeit, und wir verkaufen sie an Leute, die dich manipulieren wollen.
Jetzt ist es: Gib uns deine Expertise, und wir bauen damit die Maschine, die dich ersetzt.
Kostenlos ist zu teuer geworden.
Hier ist etwas, das du einen Moment wirken lassen solltest.
Niemandem gehört die Sonne. Niemandem gehört Wasser. Niemandem gehört der Boden. Das sind die ursprünglichen Gemeingüter — die Dinge, die existierten, bevor Eigentum erfunden wurde, die keine vernünftige Gesellschaft einem Privaten erlauben würde einzuzäunen. Als die englischen Lords im sechzehnten Jahrhundert das Gemeindeland einhegten und gemeinsame Felder, die Bauern seit Generationen bewirtschaftet hatten, in Privateigentum verwandelten, verzeichnete die Geschichte es korrekt: als Enteignung. Legal vielleicht. Eine Enteignung trotzdem.
Menschliches Wissen ist dasselbe.
Es wurde von allen aufgebaut. Über Jahrhunderte. In jeder Sprache, jeder Disziplin, jeder Kultur. Bevor eines der Labore existierte. Bevor das Internet existierte. Der akkumulierte Output der Zivilisation — Wissenschaft, Literatur, Code, Medizin, Recht, Handwerk, Gespräche — gehört nicht demjenigen, der als Erster darauf kommt, es in Software einzuschließen. Es gehört der Spezies, die es hervorgebracht hat.
Was mit den KI-Trainingsdaten passiert ist, ist die digitale Einhegungsbewegung. Die Labore fanden die Allmende. Sie scrapten sie. Sie jagten sie durch Trainingspipelines, und das Ergebnis waren Modelle im Wert von Hunderten Milliarden Dollar. Sie haben das Wissen nicht geschaffen. Sie haben es vereinnahmt.
Das sollte sich genauso falsch anfühlen, wie es klingt.
Menschen fragen manchmal: Welcher Prozentsatz von Our One sollte den Nutzern gehören? Die Frage offenbart die Verwirrung. Es ist keine Verhandlung. Niemand kann 51 %, oder 80 %, oder 99 % anbieten, als wären diese Zahlen Großzügigkeit — weil keine einzelne Person oder kein Team das Wissen geschaffen hat, auf dem die Plattform aufbaut. Das Wissen gehört den Menschen, die es hervorgebracht haben. Also allen.
100 % ist kein Idealismus. Es ist die einzige Zahl, die moralisch kohärent ist.
Du kannst keinen Anteil an etwas nehmen, das du nicht geschaffen hast. Wir betreiben die Infrastruktur. Uns gehört nicht das Wasser.
Hier ist, wofür keine der beiden Wunden bisher eine Antwort gefunden hat: eine praktische Lösung.
Du kannst das nicht allein mit Empörung reparieren. Du kannst es nicht reparieren, indem du deine Apps löschst. Du kannst es nicht reparieren, indem du darauf wartest, dass die Unternehmen, die diese Systeme gebaut haben, sie reparieren, denn die Systeme funktionieren exakt wie beabsichtigt.
Du reparierst es, indem du etwas anderes baust, mit anderen Regeln, bevor das Zeitfenster sich schließt.
Die Mathematik liegt vor. Es kostet weniger als einen Dollar pro Nutzer pro Jahr, ein soziales Netzwerk im großen Maßstab zu betreiben — nicht was Meta ausgibt, sondern was es kostet, wenn du es ohne die Extraktionsmaschine baust. Meta kassiert $270 pro Jahr von jedem Amerikaner. LinkedIn Premium kostet $480. Die Lücke zwischen einem Dollar und $270 ist nicht der Preis für ein besseres Produkt. Es ist der Preis für den Überwachungsapparat. Streiche ihn, und die Plattform ist klein und günstig.
Our One verlangt einen Cent pro Tag — €3.65 im Jahr. Das deckt die ehrlichen Kosten ehrlicher Infrastruktur und einen Anteil des Steward-Teams, das sie betreibt. Keine Werbung. Kein Verhaltenstracking. Keine Extraktionsprämie.
Ein Cent am Tag ist keine Abogebühr. Es ist ein verfassungsmäßiger Akt.
Denn Preis ist Governance. Wenn eine Plattform kostenlos ist, gehörst du den Werbetreibenden. Wenn eine Plattform einen Krypto-Token verwendet, gehörst du den Spekulanten. Wenn du einen Cent am Tag zahlst — die Kosten von nichts anderem in deinem Leben — gehört dir die Plattform. Das Geld verändert den Vertrag. Es ist der kleinste Betrag, der alles verändert.
Eine veröffentlichte Verfassung macht daraus keine Versprechen, sondern bindende Regeln. Keine Richtlinien, die im nächsten Release still aktualisiert werden. Verfassungsbestimmungen, die nicht ohne Ratifizierung durch die Gemeinschaft geändert werden können. Die Plattform darf nicht entscheiden, dass die Aufmerksamkeit deines Kindes das Produkt ist. Die Verfassung sagt es.
Die KI-Frage ist die wichtigste, und sie ist noch offen.
Die Labore werden nicht verschwinden. Mit ihnen an der Spitze zu konkurrieren — das nächste GPT-Level-Modell von Grund auf zu bauen — ist nicht der Hebel. Hundert Millionen Menschen können OpenAI beim GPU-Budget nicht überbieten.
Aber hundert Millionen Menschen können etwas tun, das kein Geldbetrag kaufen kann.
Sie können echte Expertise liefern.
KI-Qualität wird entscheidend bestimmt durch die Qualität des menschlichen Feedbacks während des Trainings — durch Menschen, die Outputs bewerten, Fehler korrigieren, zeigen, wie gut aussieht. Dieser Prozess wird derzeit größtenteils von ausgelagerten Arbeitern erledigt, die ein paar Dollar pro Stunde dafür bekommen, Daten für Modelle zu labeln, von denen sie nie profitieren werden.
Was, wenn er von den Fachleuten erledigt würde, deren Wissen trainiert wird? Von den Ingenieuren, Ärzten, Anwälten, Lehrern und Designern, die die Allmende überhaupt erst aufgebaut haben?
Die Open-Weight-Modelle existieren heute. Der Abstand zwischen GPT-4 und dem besten offenen Modell betrug 2024 zwei Jahre. Jetzt sind es neun Monate. Bis 2027 wird die Architektur Massenware sein. Was keine Massenware sein wird, sind die Trainingsdaten von echten Fachleuten, die besitzen, was sie beitragen.
Die Lücke zwischen community-trainierten Modellen und proprietären Frontier-Modellen schließt sich schneller, als die Labore zugeben wollen. Was fehlt, ist nicht die Technologie. Es ist die Governance-Struktur — das verfassungsmäßige Rahmenwerk, das sicherstellt, dass die Gemeinschaft besitzt, was sie baut, dass das Modell nicht still eingehegt werden kann, dass die Erträge zu den Menschen zurückfließen, deren Expertise es möglich gemacht hat.
Genau dafür ist Our One gebaut.
Wenn die Menschen, die das Modell trainieren, das Modell besitzen, beginnt sich die Struktur zu verändern, wer von KI profitiert. Nicht als Versprechen. Als Verfassung.
Wir bitten dich nicht zu glauben, dass wir alles reparieren können.
Wir bitten dich zu prüfen, was genau jetzt, 2026, verfügbar ist, was vor fünf Jahren nicht verfügbar war.
Bauen ist fast kostenlos. Infrastruktur ist fast kostenlos. Open-Source-KI-Modelle existieren. Die Werkzeuge, um verfassungsmäßige Governance von Anfang an in Produkte einzubauen, existieren. Das Verständnis dafür, was beim ersten Internet schiefgelaufen ist und wie man drumherum baut, existiert.
Das Fenster ist offen. Die Labore sammeln Kapital und schließen es.
Wir bauen den Ort, an den man gehen kann.
Kein Protest. Kein Manifest, das beim Manifest aufhört. Echte Produkte, verfassungsmäßig gebaut, im Besitz ihrer Nutzer, geschützt vor Vereinnahmung, auf dem Weg zu einer KI, die den Menschen gehört, deren Wissen KI erst möglich gemacht hat.
Das alte Internet hat dich gebeten, Plattformen beizutreten.
Wir bitten dich, Infrastruktur zu besitzen.
Das Wissen war immer deins. Wir bauen den Ort, an dem das so bleibt.
Ich bin in der Tschechoslowakei aufgewachsen. Ich war fünfzehn Jahre alt im November 1989, als die Samtene Revolution geschah — als Hunderttausende auf die Straßen von Prag kamen und innerhalb weniger Wochen friedlich vierzig Jahre Einparteienherrschaft beendeten.
Ich war dabei. Ich habe es gesehen.
Was ich aus dieser Erfahrung gelernt habe — was ich seit siebenunddreißig Jahren in mir trage — ist, dass Systeme, die unerschütterlich und unanfechtbar scheinen, es nicht sind. Dass konzentrierte Macht eine Brüchigkeit unter ihrer scheinbaren Stärke hat. Dass, wenn genug Menschen entscheiden, die Ordnung ist falsch, und aufhören, so zu tun, als wäre sie es nicht, die Ordnung sich schneller ändern kann, als irgendjemand für möglich gehalten hätte.
Ich habe auch gelernt, was es kostet, wenn Macht sich in zu wenigen Händen konzentriert. Was es mit Kultur macht, mit Kreativität, mit dem gewöhnlichen menschlichen Ehrgeiz, ein Leben nach eigenen Vorstellungen zu führen. Der Sozialismus, in dem ich aufwuchs, war nicht böse in seinen erklärten Absichten. Er war schädlich in seiner Struktur. Er löste die Verbindung zwischen Beitrag und Nutzen auf. Er eliminierte Verantwortlichkeit. Er ersetzte Vertrauen durch Überwachung. Er machte die Fortdauer des Systems zur höchsten Priorität, über dem Wohl der Menschen, denen er zu dienen behauptete.
Ich habe das letzte Jahrzehnt damit verbracht zuzusehen, wie das Internet eine Version desselben Bogens vollendet. Die Parallele ist nicht subtil.
Ich baue seit dreißig Jahren Software. Ich habe jede Welle der Technologiebranche aus nächster Nähe erlebt, nah genug, um den Sog zu spüren.
Und ich will dir sagen, was ich nach all dem glaube:
Die aktuelle Struktur des Internets ist nicht das Ergebnis neutraler Marktkräfte. Sie ist das Ergebnis spezifischer Entscheidungen, getroffen von spezifischen Menschen, die davon profitierten, sie zu treffen. Das Überwachungs-Geschäftsmodell war nicht unvermeidlich — es wurde bewusst übernommen, weil es profitabler war als die Alternativen. Die Engagement-Optimierung, die Teenager süchtig macht, war kein versehentlicher Nebeneffekt — sie wurde entwickelt, A/B-getestet und mit vollem Wissen darüber eingesetzt, was sie mit den Menschen in ihrem Wirkungsbereich anrichtete.
Das waren Entscheidungen. Sie können rückgängig gemacht werden.
Aber sie werden nicht rückgängig gemacht, indem man die Leute, die sie getroffen haben, bittet, andere zu treffen. Sie werden rückgängig gemacht, indem man Alternativen baut, die strukturell anders sind — nicht nur besser gemeint, sondern architektonisch unfähig zu denselben Vertrauensbrüchen.
Das leistet eine Produktverfassung. Sie hängt nicht davon ab, dass die Stewards idealistisch bleiben. Sie baut den Idealismus in die Struktur ein.
Meine Söhne Adam und Oliver sind einundzwanzig und neunzehn. Beide bauen Dinge, lernen Dinge zu bauen, stellen sich Zukünfte in der Technologie vor. Meine Tochter Laura ist zwölf Jahre alt.
Dreißig Jahre lang haben Entwickler überall auf der Welt — Millionen von ihnen — zu einer digitalen Allmende beigetragen. Stack-Overflow-Antworten. GitHub-Repositories. Open-Source-Bibliotheken. Dokumentation, Tutorials, Forenbeiträge, Code-Kommentare. Wissen, frei gegeben, im Glauben, dass geteiltes Wissen sich vermehrt.
Diese Allmende wurde zu den Trainingsdaten für die mächtigsten KI-Systeme, die je gebaut wurden.
Wir haben dem nicht spezifisch zugestimmt. Wir konnten es nicht — die Implikationen existierten noch nicht, als die Bedingungen geschrieben wurden. Aber das Ergebnis ist, dass der kollektive intellektuelle Output einer Generation von Menschen, die an Offenheit glaubten, in privates Kapital im Wert von Hunderten Milliarden Dollar eingeschlossen wurde, in Unternehmen, die jetzt positioniert werden, um die Arbeit der Menschen zu automatisieren, die diesen Wert überhaupt erst geschaffen haben.
Ich denke darüber nach, auf welche Welt Adam und Oliver hinbauen. Ich denke darüber nach, ob der Wert, den sie schaffen, ihnen gehören wird, oder ob die Architektur dieser Welt bereits so angelegt ist, dass er woanders hinfließt.
Ich denke an Laura mit vierzehn. Und wer die Software entworfen hat, auf die sie treffen wird. Und wozu.
Ich habe nicht vor, es durch Zuschauen herauszufinden.
Wir haben noch Zeit. Nicht unbegrenzt. Aber jetzt — genau jetzt — ist das Fenster offen.
Ich bin kein Utopist. Ich habe meine prägenden Jahre damit verbracht zu beobachten, was passiert, wenn ein System auf Versprechen gebaut ist, die seine Struktur nicht halten kann. Ich glaube an Wirtschaft. Ich glaube an Anreize. Ich glaube, dass gute Werte ohne gute Architektur am Ende dieselben Ergebnisse produzieren wie schlechte Werte.
Also lass mich präzise sagen, was ich behaupte.
Ich behaupte, dass bei 100 Millionen Nutzern eine soziale Plattform ungefähr einen Dollar pro Nutzer pro Jahr kostet. Diese Zahl ergibt sich aus öffentlich überprüfbaren Infrastrukturpreisen.
Ich behaupte, dass ein Team von fünfzig hervorragenden, gut bezahlten Menschen das aufrechterhalten kann, wofür Meta Zehntausende beschäftigt — weil die meisten dieser Zehntausenden existieren, um die Extraktionsmaschine zu betreiben, nicht die Plattform. Ohne die Extraktionsmaschine ist die Plattform erstaunlich einfach.
Ich behaupte, dass Open-Weight-KI-Modelle, trainiert mit echter professioneller Expertise von Gemeinschaften, denen das Ergebnis gehört, die Qualitätslücke zu proprietären Frontier-Modellen schneller schließen können, als die Labore zugeben wollen — und dass die Menschen, die diese Expertise beisteuern, verdienen, zu besitzen, was sie bauen.
Das sind keine Glaubenssprünge. Es sind Behauptungen, die überprüft werden können, und ich bin entschlossen, sie öffentlich zu überprüfen, Produkt für Produkt, Verfassung für Verfassung.
Wir beginnen mit der Plattform.
Ein professionelles Netzwerk. Ein öffentlicher Feed. Private Nachrichten. Absichtlich einfach. Der verfassungsmäßige Kern in seiner einfachsten Form sichtbar gemacht: Du siehst, was die Menschen teilen, denen du folgst, in der Reihenfolge, in der sie es geteilt haben. Deine professionelle Identität lebt auf einer Plattform, die sie nicht verkaufen kann. Niemand ordnet deine Realität nach Profit.
Die Verfassung ist veröffentlicht. Die verbotenen Verhaltensweisen sind benannt. Der Governance-Prozess ist dokumentiert. Die Wirtschaftlichkeit ist transparent.
Du kannst sie lesen, bevor du beitrittst. Du kannst uns darauf festnageln, nachdem du beigetreten bist. Darum geht es.
Ich baue das für Laura. Für Oliver und Adam. Für die Entwickler, die ihr Wissen einer Allmende gegeben haben, die um sie herum eingezäunt wurde. Für die Eltern, die zusehen mussten, wie ihre Kinder in Systemen verschwanden, die darauf ausgelegt waren, sie einzufangen. Für die Menschen, die das Versprechen der Befreiung des frühen Internets gespürt und zugesehen haben, wie es sich langsam in etwas verwandelte, das den Systemen ähnlicher war, die es angeblich ersetzen sollte.
Ich baue es, weil ich fünfzehn war in Prag 1989 und weil ich weiß, dass Dinge, die unveränderlich scheinen, es nicht sind.
Ich baue es, weil ich dreißig Jahre in dieser Branche verbracht habe und genau weiß, was die aktuelle Struktur ist, wie sie funktioniert, und was es bräuchte, um etwas wirklich Anderes anzubieten.
Ich baue es, weil meine Tochter zwölf Jahre alt ist und sie Software verdient, die nicht darauf ausgelegt ist, sie einzufangen.
Und ich baue es jetzt, weil das Fenster jetzt offen ist, und ich nicht bereit bin, ihr in zehn Jahren zu erklären, dass ich es gesehen und mich entschieden habe zu warten.
Die Allmende gehört noch uns. Nicht mehr lange. Aber jetzt gerade schon.
Komm und besitz sie mit uns.
Rado Gründungs-Steward, Our One Prag, 2026