Nieuwe inzet: taalmodellen bevorderen een inclusieve samenleving
AmsterdamGrote taalmodellen zijn de laatste tijd erg belangrijk geworden en maken nu deel uit van alledaagse apps. Deze modellen kunnen verbeteren hoe mensen samen nadenken en beslissingen nemen, maar brengen ook bepaalde risico's met zich mee. Een recente studie van onderzoekers van onder andere de Copenhagen Business School en het Max Planck Instituut onderzoekt hoe deze modellen menselijke groepsintelligentie kunnen versterken en welke gevaren ze met zich mee kunnen brengen.
De studie toont aan dat grote taalmodellen (LLM's) mensen helpen om gemakkelijker toegang te krijgen tot informatie en aan gesprekken deel te nemen, ongeacht hun achtergrond. Dit kan de manier waarop beslissingen worden genomen veranderen. Bijvoorbeeld, LLM's kunnen discussies toegankelijker en inclusiever maken door het volgende te bieden:
- Vertaalservices die taalbarrières doorbreken.
- Ondersteuning bij het snel genereren van ideeën.
- Vergemakkelijking van consensus door uiteenlopende meningen samen te vatten.
Grote zorg bestaat over het feit dat grote taalmodellen (LLM’s) mogelijk schadelijk kunnen zijn voor open kennisplatforms zoals Wikipedia. Als mensen te zeer vertrouwen op deze commerciële modellen, kan dat de diversiteit en toegankelijkheid van online informatie verminderen. Dit kan resulteren in een meer gecentraliseerde benadering van kennisbeheer, waarbij minderheidsgroepen genegeerd worden en het lijkt alsof er meer consensus is dan daadwerkelijk het geval is.
Om deze problemen aan te pakken, is het belangrijk om openheid te benadrukken bij het ontwikkelen van taalmodellen. Het rapport beveelt aan dat ontwikkelaars de herkomst van hun trainingsdata delen en dat er externe audits plaatsvinden. Door deze stappen kan men beter inzicht krijgen en schadelijke effecten verminderen.
Grote taalmodellen kunnen nabootsen hoe groepen mensen gezamenlijk denken, wat nieuwe onderzoeksmogelijkheden biedt. Belangrijke punten die aangepakt moeten worden, zijn het waarborgen van de diversiteit van de data waarop ze worden getraind en het vaststellen van manieren om erkenning te geven voor gezamenlijk gecreëerd werk. Het oplossen van deze vraagstukken is essentieel om deze modellen effectief te gebruiken zonder menselijke input of creativiteit te verliezen.
Het inzetten van grote taalmodellen (LLM's) in de samenleving vereist zorgvuldige planning om hun voordelen te maximaliseren en negatieve effecten te vermijden. Terwijl technologie zich blijft ontwikkelen, zijn voortdurende gesprekken tussen ontwikkelaars, wetgevers en het publiek van groot belang. Door samen te werken over verschillende sectoren heen, kunnen we ethische en innovatieve manieren vinden om LLM's te gebruiken, waardoor de samenleving in de toekomst beter gebruik kan maken van gedeelde kennis.
De studie is hier gepubliceerd:
http://dx.doi.org/10.1038/s41562-024-01959-9en de officiële citatie - inclusief auteurs en tijdschrift - is
Burton, J.W., Lopez-Lopez, E., Hechtlinger, S. et al. How large language models can reshape collective intelligence. Nat Hum Behav, 2024 DOI: 10.1038/s41562-024-01959-9Deel dit artikel