Ceci n'est pas un argumentaire. C'est un resultat publie.
Un modele ouvert de neuf milliards de parametres — Qwen 3.5, affine avec QDoRA sur des donnees d'interactions medicamenteuses de qualite experte et augmente par la recuperation sur des notices de medicaments approuvees par la FDA — surpasse GPT-5.4, Claude Opus 4.6 et Gemini 3.1 Pro sur l'identification des mecanismes pharmacologiques.
Il identifie 92 % des mecanismes d'interaction medicamenteuse. GPT-5.4 en identifie 69 %. Cout total : dix dollars.
L'affirmation.
Nous affirmons : Un petit modele ouvert, entraine par des experts, avec recuperation sur des donnees FDA faisant autorite, identifie les mecanismes d'interaction medicamenteuse plus precisement que les modeles d'IA de pointe — tout en citant ses sources. Pas une IA qui remplace le pharmacien. Une IA a laquelle le pharmacien peut faire confiance.
Nous n'affirmons PAS : Un modele de 9B bat les modeles de pointe sur les connaissances generales, l'ecriture creative ou toute tache en dehors de son domaine d'entrainement.
L'affirmation est etroite et specifique. C'est ce qui la rend credible — et generalisable, car le mecanisme (entrainement par des experts + recuperation structuree) s'applique a tout domaine professionnel a forte intensite de connaissances.
Les resultats.
| Modele | Rappel des mecanismes | Precision de la severite | Prise en charge | Citations | Configuration |
|---|---|---|---|---|---|
| Qwen 3.5 9B + QDoRA + RAG | 0,917 | 0,400 | 100 % | 90 % | Affine, recuperation sur les notices FDA |
| GPT-5.4 | 0,692 | 0,900 | 100 % | 0 % | Configuration par defaut |
| Claude Opus 4.6 | 0,825 | 0,700 | 100 % | 50 % | Configuration par defaut |
| Gemini 3.1 Pro | 0,892 | 0,700 | 100 % | 100 % | Configuration par defaut |
10 scenarios d'interaction medicamenteuse issus de DrugBank, evalues par rapport a la verite terrain. Modeles de pointe testes via l'API OpenRouter. Notre modele tourne localement sur un MacBook Air (quantifie Q4, 5,2 Go).
Notre modele atteint le meilleur rappel des mecanismes et est le seul qui cite systematiquement des sources faisant autorite (90 %) ET fournit des recommandations de prise en charge (100 %). GPT-5.4 gagne sur la classification de la severite mais ne cite jamais de sources — en pratique clinique, une reponse sans source n'est pas exploitable.
Ce que cela a coute.
| Phase | Cout |
|---|---|
| Donnees d'entrainement (4 573 evaluations d'interactions cliniques) | ~$8 |
| Affinage (QDoRA, 3 epoques, A100, 54 minutes) | ~$1,30 |
| Corpus RAG (757 notices FDA, 5 622 passages) | gratuit |
| Benchmarking (comparaison avec les modeles de pointe via OpenRouter) | ~$1 |
| Total | ~$10 |
La couche d'affinage — la ou l'expertise professionnelle reside — coute dix dollars. Comparez cela aux couts d'entrainement des modeles de pointe : des centaines de millions par iteration.
Reproduisez-le.
Tout le code est dans scripts/ai-poc/ de notre depot open-source :
fetch_drugbank.py— telecharger les paires d'interactions medicamenteuses depuis DrugBankfetch_openfda_interactions.py— recuperer le texte des notices FDA (gratuit, sans authentification)build_retrieval_index.py— construire l'index vectoriel FAISS sur le texte clinique FDAgenerate_raft_pairs.py— generer des paires d'entrainement structurees par des experts (~$8)export_training.py— exporter en JSONL avec repartition entrainement/validation/testtrain.sh— affinage QDoRA sur GPU cloud (~$1,30)merge_weights.py— fusionner les poids de l'adaptateur pour une inference rapidebenchmark_local.py— comparaison complete avec les modeles de pointe
Temps total : environ un jour. Cout total : environ dix dollars.
Si vous pouvez prouver que nous avons tort, faites-le. Nous publions le code parce que nous voulons que vous essayiez.
Questions difficiles. Reponses honnetes.
Si vous lisez jusqu'ici, vous etes le genre de personne qui ne rejoint pas les choses facilement. Tant mieux. Nous ne cherchons pas de l'enthousiasme. Nous cherchons du jugement.
« Pourquoi les experts contribueraient-ils ? »
Revenus. 95 % des revenus consommateurs reviennent aux experts. Les membres de la Guilde obtiennent un acces IA complet pour $5 au lieu de $20.
Une IA qui travaille pour eux. Entrainee par des experts verifies dans votre domaine, avec recuperation sur les bases de donnees que vous utilisez reellement.
Dix minutes, pas un changement de carriere. Contribution minimale : un jugement oui/non de cinq secondes.
« Pourquoi $5/mois ? Pourquoi pas gratuit ? »
Nous facturons $5 pour ne jamais avoir a prendre du capital-risque. Aucun investisseur ne permettrait que 95 % reviennent aux contributeurs. Aucun investisseur n'accepterait une constitution qui interdit la conception de remplacement du travail. Les $5 sont le prix de l'independance.
Contribuer est gratuit — n'importe qui peut s'inscrire et faire des evaluations rapides. L'adhesion a la Guilde ($5/mois) donne acces aux outils d'evaluation complets, a l'IA et a la part de revenus.
« 95 % aux experts — comment est-ce viable ? »
Deux sources de revenus. Les cotisations de la Guilde ($5/mois par expert) financent l'equipe principale. La societe recoit aussi 5 % des revenus consommateurs. La Constitution le garantit — la societe ne peut pas augmenter sa part au-dela de 5 % sans un vote a la majorite qualifiee des membres de la Guilde. Les couts d'infrastructure sont publies mensuellement.
« Que peut faire ceci que ChatGPT ne peut pas ? »
Cinq choses qu'aucun modele de pointe ne peut garantir :
- Attribution des sources. Chaque affirmation remonte a un expert nomme qui l'a verifiee.
- Calcul deterministe. Tranches d'imposition, posologies, codes de construction — calcules, pas predits.
- Validite temporelle. Les unites expirent quand la loi change. Les LLM citent avec assurance les regles de l'annee derniere.
- Specificite juridictionnelle. Le droit fiscal tcheque n'est pas le droit fiscal allemand. Un seul modele ne peut pas servir les deux.
- Consentement et remuneration. Chaque expert qui a contribue est nomme, a consenti et est remunere.
« Et si les modeles de pointe s'ameliorent simplement ? »
L'ecart est architectural, pas un avantage de performance. Les modeles de pointe predisent a quoi les reponses ressemblent. Nous compilons comment les professionnels raisonnent reellement — en unites verifiees qui s'executent de maniere deterministe. Un modele de pointe peut s'ameliorer a deviner le bon calcul fiscal. Notre systeme execute le calcul fiscal. C'est une propriete structurelle, pas un avantage qui s'erode.
Le modele de base s'ameliore — nous l'integrons. Le raisonnement expert est le fosse concurrentiel, pas les poids du modele.
« Quelles professions ne couvrez-vous PAS ? »
Deliberement : ingenierie logicielle, science des donnees, design, conseil en management, travail creatif. Ce sont les domaines ou les LLM fonctionnent deja bien. Nous construisons pour les 124 professions ou l'IA est la plus faible — denses en regles, specifiques a une juridiction, a enjeux eleves.
« Comment evitez-vous la triche ? »
Trois couches : detection automatisee d'anomalies (doublons, anomalies de volume, plagiat), evaluation par les pairs (chaque contribution evaluee par 2+ professionnels verifies), et verification des credentials (licence, certification ou diplome — examine par le comite de gouvernance du domaine). Le volume sans qualite ne rapporte rien.
« Ca ressemble a de la crypto. »
Pas de jeton. Pas de blockchain. Pas de speculation. Les points sont permanents, non transferables, non echangeables. Ils refletent une contribution professionnelle verifiee, pas une position a revendre. $5/mois pour les experts. $20/mois pour les consommateurs. Couts transparents. Protections constitutionnelles.
« Une seule personne ne peut pas construire cela. »
Une personne l'a commence. La Constitution garantit qu'aucune personne ne le controle. Les communautes d'experts gouvernent leurs domaines. Les contraintes constitutionnelles empechent la capture quel que soit celui qui dirige l'entreprise.
Toujours pas convaincu ? Lisez la Constitution — c'est le chemin le plus court pour savoir si nous sommes serieux.