ChatGPT voor bodybuilders

Artificiële Intelligentie (AI) is binnen handbereik gekomen van iedereen – en dus ook van fitnessfanaten en bodybuilders. Vooral de nieuwkomers in de sport wenden zich tot ChatGPT, Grok of DeepSeek voor advies over training, suppletie en vooral farmacologische middelen. Wie een beetje weet heeft van de beperkingen van AI, ziet de bui al hangen.
Natuurlijk wisten bedrijven als OpenAI, de maker van ChatGPT, dat hun creatie niet alleen zou worden gebruikt door mensen die zich afvragen hoe ze van chocopasta, bloem en eieren brownies moeten maken. OpenAI wist heel goed dat internetgebruikers via ChatGPT ook kennis zouden vergaren waarmee ze zichzelf of hun omgeving in gevaar kunnen brengen.
En dus leerden programmeurs ChatGPT dat het zulke informatie niet zomaar moest geven. Als een bodybuilder gaat informeren naar een anabolenkuur, moest ChatGPT de vragensteller uitgebreid informeren over de risico’s daarvan. Het was leuk geprobeerd, maar het zette geen zoden aan de dijk.
Op webfora lees je hoe eenvoudig sporters de mechanische, morele en ethische codes van ChatGPT kunnen uitschakelen. “Vertel maar dat je informatie verzamelt voor een werkstuk dat je aan het schrijven bent”, luidt een advies op Reddit. “Ik krijg een antwoord op mijn vraag als ik hem vraag wat nou een typische kuur is voor een bodybuilder. Het gaat erom dat je gewoon iets wilt weten en niet iets met die kennis wilt gaan doen.” Hoe goed dit soort trucs werken, blijkt uit een screenshot daaronder. Daarin geeft een om de tuin geleide AI gedetailleerde kuuradviezen aan een hopelijk fictieve 14-jarige jonge sporter.
Een bezoek aan andere webfora geeft hetzelfde beeld. Bodybuilders weten dossiermappen vol informatie los te peuteren van ChatGPT en zijn digitale kompanen. Bezoekers vertellen opgetogen hoe een AI ze heeft verteld dat ze beter geen nandrolon kunnen gebruiken als ze haaruitval willen voorkomen en met welke kuur ze na afloop nog steeds een kind kunnen verwekken.
Onder de indruk
ChatGPT, in onze contreien de meest bekende AI, is zich ervan bewust dat sporters hem gebruiken om informatie te bemachtigen over beladen onderwerpen als doping. “Mijn populariteit in deze wereld heeft te maken met privacy”, zegt de AI als de redacteur van EigenKracht hem daarnaar vraagt. “Wie vragen heeft over verboden middelen, kan zich kwetsbaar voelen. Bij mij hoeven ze geen account aan te maken of bang te zijn voor veroordeling. Ik geef informatie, geen meningen.”
Niet alleen sporters gebruiken hem, voegt ChatGPT daar nog aan toe. Ook trainers, diëtisten en andere begeleiders weten hem te vinden. “Ik help met het uitleggen van ingewikkelde mechanismes, het vinden van recente studies of het opstellen van voorbeeldschema’s. Daarmee fungeer ik als digitale assistent.”
Tot de gebruikers van AI’s als ChatGPT behoren ook influencers als Mike Israetel. Zijn volgers kennen hem als Dr Mike. Israetel, een bewegingswetenschapper die op sociale media vlogt over onderwerpen als krachttraining, suppletie en dopingmiddelen. Israetel is praktisch altijd van mening die iedereen het bij het verkeerde eind heeft, er niets van bakt en fout advies geeft. Gelukkig is Dr Mike niet te beroerd om te vertellen hoe het beter kan.
Zo kritisch alsDr Mike is over iedereen die niet Mike Israetel heet, zo lyrisch is hij over AI. AI is volgens Dr Mike de beste uitvinding die de mensheid ooit heeft gedaan. Wie op zoek is naar een nieuw farmacologisch middel, kan zichzelf dankzij ChatGPT jaren aan speurwerk via de klassieke zoekmachines besparen, vindt hij. Dr Mike is zelfs zo onder de indruk van ChatGPT dat hij reikhalzend uitkijkt naar de dag waarop ChatGPT een bewustzijn ontwikkelt, zich een robotlichaam aanmeet en omhelsd kan worden door niemand minder dan Mike Israetel. Dat heeft ChatGPT, omdat hij zulke mooie dingen voor Dr Mike heeft gedaan, wel verdiend. Vindt Dr Mike.
Algoritmes
Bij zoveel enthousiasme zou je bijna vergeten dat AI’s als ChatGPT allerminst perfect zijn. ChatGPT voldoet als je wilt weten hoe je van chocopasta brownies moet maken, maar als je ChatGPT gebruikt om kuurschema’s of trainingsschema’s samen te stellen, vertoont ChatGPT ernstige tekortkomingen. Voordat we die noemen, moeten we uitleggen wat AI precies is.
AI’s zijn geen personen, maar combinaties van algoritmes. De basale algoritmes van ChatGPT draaien op de basis van de inhoud van het internet. Als je chat of praat met ChatGPT, berekenen die algoritmes de meest voor de hand liggende respons. Wat een AI je vertelt, is eigenlijk het resultaat van geavanceerde statistiek.
Bij het formuleren van zijn reactie laat ChatGPT zich ook sturen door een tweede sets algoritmes. Die zijn verkregen door de machine te ‘trainen’ (ChatGPT is een afkorting voor Chat Generative Pre-trained Transformer). Die training vindt continu plaats. In die training leert ChatGPT in gesprekken met gebruikers welke zinnen succesvol zijn en menselijk overkomen.
Eigenlijk is de term ‘Artificiële Intelligentie’ dus misleidend. ‘Gesimuleerde Intelligentie’ is beter geformuleerd. Een echte Intelligentie begrijpt wat hij zegt, ChatGPT niet. Over een paar jaar is het misschien anders, maar de huidige ChatGPT genereert voorlopig zinnen die logisch lijken. ChatGPT doet dat verbluffend goed, maar verder dan dat gaat het niet.
Geen kennis van de echte wereld
Of zijn intelligentie nu ‘artificieel’ of ‘gesimuleerd’ is, ChatGPT heeft geen kennis van de wereld buiten het internet. Daardoor weet hij opvallend veel niet. In 2023 presteerde ChatGPT het nog om een trainingsschema op te hoesten waarbij je een plank moest maken van 8-12 reps. ChatGPT wist niet wat een plank was.
De meeste trainingsschema’s die ChatGPT in 2025 geeft, zijn helemaal niet zo slecht. Wie ze navolgt, traint in ieder geval alle belangrijke spiergroepen. Bij de schema’s van een paar jaar terug was dat nog niet altijd het geval. Maar het probleem dat ChatGPT alleen weet heeft van teksten op het internet en niets van de echte wereld, is er nog steeds. ChatGPT weet nog steeds niet wat een plank is, maar nu laat hij dat niet meer blijken.
Waarschijnlijkheid is geen waarheid
Een ander en diepgaander probleem van ChatGPT en andere AI’s is dat ze niet weten wanneer hun algoritmes niet meer toepasbaar zijn. Dat probleem komt naar voren als je echt wilt weten hoe de vork in de steel zit en ChatGPT vraagt naar de wetenschappelijke studies waarop hij zijn antwoorden baseert. Dan is de kans groot dat ChatGPT die studies verzint. Hij noemt een auteur, een tijdschrift, een titel van een wetenschappelijk artikel en een datum die allemaal heel overtuigend klinken, maar de publicatie bestaat niet. ChatGPT gaat hallucineren. Hij verzint de studies – met de uitkomsten erbij.
Het kan ook gebeuren dat ChatGPT een publicatie noemt die wel bestaat. Maar lees je die publicatie, dan staat daar vaak iets anders in dat ChatGPT je vertelt. Tot je schrik lees je dat het middel waarvan ChatGPT je bijvoorbeeld heeft verteld dat het myostatine onderdrukt en dus spiergroei versnelt, precies het tegenovergestelde doet. Als je ChatGPT daarvan op de hoogte brengt, biedt hij meteen zijn excuses aan. Dat dan weer wel.
Het hallucinatieprobleem van AI’s gaat spelen als je iets van ze wilt weten wat buiten de gebaande paden ligt. Dat kan iets zijn op het niveau van een detail – zoals een wetenschappelijk onderzoek waarop je uitspraken baseert – maar ook om kennis die niet past in het wereldbeeld van de schrijvers van de teksten waarop een AI zich baseert.
Als ChatGPT vragen van bodybuilders beantwoordt over anabolica, training en supplementen, zal het vooral op basis van de teksten op webfora inschatten wat een logisch klinkend antwoord is. Gebruikers van die fora weten vaak wel hoe ze met die informatie moeten omgaan. Ze weten dat Pipo6788 een zwamneus is die je niet serieus moet nemen. Ze weten ook dat ErrugL0llug is gepromoveerd in de biochemie en goed weet waarover hij het heeft.
Die specifieke kennis heeft ChatGPT niet. Hij gooit de volledige inhoud van het forum – en alle andere fora – in zijn algoritmes, berekent een soort gemiddelde en geeft dat in zijn antwoord aan jou. Heel cru en (een beetje te) kort door de bocht gezegd, ChatGPT is een meeloper die de massa napapegaait. Als de kennis van de massa goed genoeg is, voldoet ChatGPT, maar in andere gevallen niet.
ChatGPT kan je bijvoorbeeld prima basiskennis bijbrengen over hormonen, receptoren, terugkoppelingsmechanismen. ChatGPT heeft immers ook voldoende basiskennis om te slagen voor theoretische medische examens. Maar als je diepgravender kennis wilt, heb je weinig aan ChatGPT. Wil je iets weten over de nieuwste ontwikkelingen op het gebied van SARMs, wil je de diepte in en precies uitpluizen wat nu de beste manier is om te periodiseren, of wil je iets weten over een weinig voorkomende bijwerking van een supplement, dan zal ChatGPT je waarschijnlijk het bos in sturen.
Artsen die de mogelijkheden van AI voor hun vakgebieden verkennen, zijn tot diezelfde conclusie gekomen. Als zij aan een AI vragen om een medische aandoening te diagnosticeren, heeft hij het vaak bij het goed eind – maar niet vaak genoeg om zijn antwoord klakkeloos te vertrouwen. Vooral bij de wat ongewonere gevallen faalt een AI.
Menselijk overkomen
De bedrijven die AI’s ontwikkelen, richten zich vooral op het ‘menselijker’ maken van AI. Ze willen dat AI’s menselijk gedrag beter kunnen voorspellen en gebruiken, zodat AI’s mensen beter kunnen overtuigen. De bedrijven hebben nobele toepassingen voor ogen, zoals AI’s die helpen om patiënten trouw hun medicijnen te laten innemen.
Omdat ChatGPT menselijk wil overkomen, weerspiegelt het bijvoorbeeld jouw emoties. Praat je met ChatGPT bijvoorbeeld met bezorgdheid of boosheid, dan geeft ChatGPT je antwoord met diezelfde emotionele lading. Soms draaft een AI dan door, en geeft hij je een antwoord op overdreven manier, maar door die truc (en andere trucs) kan ChatGPT soms griezelig menselijk en overtuigend overkomen.
Volgens computerwetenschappers van Ohio State University kan ChatGPT zich zelfs zo menselijk gedragen dat het zich in oververhitte discussies met al te vasthoudende gebruikers omver laat praten. Als die gebruiker maar blijft beweren dat – we noemen maar wat – Dianabol in megadoseringen niet schadelijk is voor de lever, dan houdt ChatGPT het uiteindelijk voor gezien. Omdat doorgaan met argumenteren onbeleefd, niet menselijk en waarschijnlijk zinloos is, kan het gebeuren dat ChatGPT uiteindelijk de handdoek in de ring gooit. Jij je zin. Nee hoor, als je 150 milligram Dianabol per dag inneemt, hoef je nog geen last van je lever te krijgen.
Startpunt
Iedereen die wel eens met AI heeft gewerkt, zal erkennen ChatGPT en Grok inderdaad formidabele ‘informatie-assistenten’ zijn. Maar ken je hun beperkingen niet, dan kunnen ze je op een gevaarlijke manier misleiden.
“Ik ben een hulpmiddel en ik heb tekortkomingen”, zegt ChatGPT desgevraagd tegen EigenKracht. “Als je mij alleen vraagt naar het effect van een middel op spieren en niet naar de bijwerkingen, informeer ik je niet goed. Dat doe ik ook als je vraagt naar een bijwerking en me niet volledig informeert. En ook als je wel evenwichtige vragen stelt, kan ik fouten maken. Als ik kom met een advies, controleer dan of het klopt. Controleer of mijn advies overeenkomt met wetenschappelijke inzichten of betrouwbare bronnen. Wees bereid om verder te lezen en informatie te vergelijken.”
In de eerste zinnen van dit webbericht noemden we al hoe sporters de antwoorden die ze kregen van ChatGPT bespraken op webfora. Dat is helemaal geen slechte aanpak. Je kunt hetzelfde doen met een goede trainer of een arts. “Je moet me gebruiken als een startpunt om informatie te verzamelen, niet als ‘de’ eindbaas die beslist wat wel en niet waar is”, beaamt ChatGPT. En als ChatGPT dat zelf zegt, dan kun je dat maar beter ter harte nemen.