Dat hangt van het onderwerp af. Gaat het om technische en 'logische' zaken (niet als in wat men logisch vindt, maar zaken die logica vereisen zoals formules en wiskunde), variërend van uitleg het opzoeken van bijvoorbeeld een instelling in het menu van je camera, een wiskundige formule, maateenheden etc., dan is het prima te gebruiken en kan het je werk aanzienlijk versnellen. Je kunt het bijvoorbeeld ook gebruiken om een presentatie over een onderwerp te genereren. In de regel gaat dat op hoofdlijnen altijd goed, maar ga je naar de nuances kijken dan schort er wel het één en ander aan. Zo heeft een vroege versie van ChatGPT waar ik mee werkte doodleuk beweerd dat de bruine draad de aarde is in een elektrische installatie...gvdnberg schreef: di jul 01 2025 9:06 pm @MarcoEos70D en@ReneG:
Denken jullie dat AI sneller een juist resultaat geeft, dus je sneller laat werken, of kost het controleren van AI antwoorden zoveel tijd dat er geen tijdswinst wordt behaald?



Gaat het echter om zaken die geïnterpreteerd moeten worden (geneeskunde, juridische zaken en wetgeving etc.), en dan vooral zaken waar nuances heel belangrijk zijn, dan is het een ander verhaal. Bij nuances zit AI er geregeld langs. Ik heb de indruk dat hij naar de 'standaard' of meest voorkomende antwoorden gebruikt maar de nuance kwijtraakt. Zeker als er veel tegengestelde beweringen/meningsverschillen zijn.
Bij wetgeving heb je bijvoorbeeld meerdere wetten die in het spel zijn. AI heeft dan de neiging om naar 1 wet te kijken, maar 'vergeet' vaak dat er andere wetten zijn die ook een rol spelen. Of hij negeert jurisprudentie. Idem met symptomen bij ziekte. Dan komt hij misschien wel met 5 zaken die het kunnen zijn, maar de dokter denkt dan toch aan die 6e andere (en vaak onschuldigere) optie. Met dat soort onderwerp is AI (nog) niet te vertrouwen.
Dat wil niet zeggen dat er geen toepassing is voor AI in die gebieden. Juristen gebruiken AI vaak wel ter inspiratie, maar moeten feitelijk alles controleren wat AI zegt. AI is bijvoorbeeld veel beter dan mensen in het opsporen van breuken of tumoren op medical imaging zoals röngten of MRI (dat is nl. geen exacte wetenschap), maar het wordt altijd door een specialist gecontroleerd. Zo heeft AI in fotobewerking ook wel veel toegevoegd op het gebied van ruisreductie etc. Maar een hand met het correcte aantal vingers genereren blijft moeilijk (zie mijn AI en zwaluwen draadje).
Maar als leek moet je bij sommige onderwerp qua AI eigenlijk wegblijven, zeker op gebieden waar veel misinformatie wordt verstrekt (medisch/gezondheid, voeding, politiek). Die gebieden zijn overspoeld met misinformatie en dat wordt in het AI model ook meegetraind. Er zullen wel specialistische AI modellen zijn die uitsluitend met correcte data wordt getraind, maar dat zijn niet de algemene modellen zoals Copilot, ChatGPT en Gemini die wij in het algemeen gebruiken.
Eigenlijk dus hetzelfde devies dat geldt voor google, facebook etc: Neem niet klakkeloos alles aan wat je op Google vindt. Dat geldt ook voor AI.