Llms getraind met data gegenereerd door llms: een recept voor tunnelvisie

Tunnelvisie

Steeds meer AI-systemen leren van hun eigen output, doordat teksten door chatgpt/copilot geschreven op social media worden gezet. En deze teksten worden weer gebruikt om de volgende versie van het taalmodel te trainen. In de wetenschap heet dit het “AI feedback loop” of zelfs model collapse. Dit gebeurd er met taalmodellen:

✳️ Modellen worden slimmer in hun eigen taal, maar dommer in diversiteit, tunnelvisie dus: lees deze studie: https://lnkd.in/e6rXYifz of dit artikel: zie https://lnkd.in/eVguVuJq

✳️ Taalmodellen verliezen hun realiteitszin. Wat als straks alles AI-gegenereerd is? Wat is waar en wat is niet waar? Zie https://lnkd.in/e5Ex48SA

Ook gemeenten, provincies en waterschappen gebruiken steeds vaker AI-toepassingen — voor dienstverlening, beleidsdocumenten of data-analyse. Dan lopen we risico op een bestuurlijke “AI-echo”: beleid dat steeds meer lijkt op oud beleid, communicatie die steeds minder nuance kent, en besluitvorming die steeds meer op herhaling gaat.

Hieruit blijkt maar weer: Blijf menselijk toetsen. Betrek ambtenaren, inwoners en domeinexperts bij validatie van teksten die door taalmodellen zijn gegenereerd.