Het taalmodel dat me op korte termijn het meest enthousiast maakt, zijn gespecialiseerde interfaces om simulaties van beleidsimpact uit te voeren, met mooie manieren om tweede- en derde-orde-effecten te visualiseren. Ik stel me voor dat beleidsmakers natuurlijk slechte prikkels zullen hebben bij het gebruik hiervan: "wat is het populairste beleid dat me ook het meest zal verrijken zonder dat het te obvious is?" Maar dit is waarom dezezelfde tools beschikbaar moeten zijn voor en gebruikt moeten worden door burgers/civil society: "wat zijn de gevolgen van dit voorgestelde beleid, zijn er betere permutaties?" Wat interessant zal zijn, is dat mensen het niet eens zullen zijn met de aannames achter sommige van de redeneringen. Dus systeem prompts en fine-tuning zullen een belangrijk onderdeel van de vergelijking zijn, net als debat via agenten. En veel hiervan weerspiegelt al hoe we dingen doen (in democratieën); het verschil is dat de kwaliteitsdrempel wordt verhoogd, en het kruischecken van motivatie (instructies) veel transparanter kan zijn. Op dit moment is beleidsanalyse van denktanks of adviesbureaus vaak een black box - je krijgt conclusies, misschien wat data, maar de volledige keten van redenering en ingebedde waarden zijn verduisterd. Bovendien zijn ze vaak van lage kwaliteit. Met AI-systemen krijg je misschien iets dat dichter bij "toon je werk" ligt op het fundamentele niveau. Het lost conflicten en onenigheid niet op, maar ik denk dat het onze resolutiemechanismen aanzienlijk verbetert.