Jan Broersen, ERC Consolidator Grant 2013

We moeten de vraag stellen hoe we robots morele afwegingen kunnen laten maken
Jan Broersen
Dr. ir. Jan Broersen

Implementatie van een moreel kompas in intelligente systemen

Zelf een auto besturen is binnenkort misschien hopeloos ouderwets. De auto-industrie is volop aan het testen met zelfrijdende auto's. Maar stel, zo'n auto rijdt een kind aan. Wie is dan verantwoordelijk? Hoe kan je een besturingsrobot leren om diverse handelingsopties af te wegen en de goede keuze te maken in het verkeer? Dat zijn vragen waarmee ingenieur en wiskundige Jan Broersen zich bezighoudt. Zijn ERC-onderzoek richt zich op de implementatie van een moreel kompas in intelligente systemen. "Volgens mij is het belangrijk dergelijk onderzoek nu te doen, bij de ontwikkeling van allerlei robots, en niet pas achteraf."

Broersen ontwikkelde zijn onderzoeksopzet bij de faculteit Information and Computing Sciences, maar stapt over naar Geesteswetenschappen. "Voordat je systemen kunt bouwen, moet je meer van motieven voor keuzes en van afwegingskaders weten." legt Broersen uit. "Mijn onderzoeksteam combineert filosofie, recht en kennis van computersystemen." Van rechtsgeleerdheid leert het onderzoeksteam over diverse vormen van verantwoordelijkheid en daarmee verband houdende aansprakelijkheden. "Gaan we robots in de toekomst als rechtspersonen behandelen? Zou dat een goed idee zijn, of juist niet?", vraagt Broersen zich hardop af. “Filosofie geeft houvast bij  afwegingskaders en logica. Ook ben ik geïnteresseerd in collectiviteit. Het gaat om samenwerking tussen mens en machine en vaak ook tussen meerdere machines. Ik wil onderzoeken wat het betekent als meerdere mensen en machines in bepaalde mate verantwoordelijk zijn en hoe je dat vangt in logische 0-1 afwegingen. Als Computer Scientist kan ik overzien hoe je deze kennis kunt implementeren in een gecomputeriseerd systeem."

Onderzoeksvrijheid

Het onderzoek is niet alleen theoretisch-filosofisch van aard. Broersen is ook een bouwer. "Ik ben van oorsprong een boerenzoon uit de kop van Noord-Holland die graag knutselde met elektronica. Dat bracht me eerst naar Elektrotechniek en de Technische Universiteit in Delft, maar daarna al snel naar de wiskunde en de informatica. Na drie jaar als docent wiskunde op een middelbare school ben ik gaan promoveren bij de VU-Amsterdam, waar ik ook kennismaakte met de studie van Intelligente Systemen. Medepromotor John-Jules Meyer haalde me later naar Utrecht. Toen ik nog studeerde, boeiden de filosofische vragen en met name de logica van techniekfilosoof Joop Doorman me al mateloos. Ik ben blij dat ik nu dagelijks hiermee bezig kan zijn. Wat dat betreft verschaft de ERC me onderzoeksvrijheid."

De lat ligt hoog, het streven is een prototype van een gecomputeriseerd verantwoordelijkheidssysteem. "Ik ben benieuwd hoever ik kom in vijf jaar", relativeert Broersen. "Maar je moet wel een punt aan de horizon zetten waar je naartoe werkt. In ieder geval zullen we niet alleen maar blijven praten, maar bijvoorbeeld ook denken over de formele systeemtaal waarin we de verschillende elementen van verantwoordelijkheid kunnen vangen."

In rap tempo worden tegenwoordig allerlei - soms zelflerende - systemen ontworpen en toegepast, zoals robotica in de zorg en early warningsystemen. En dat niet alleen. "Het grootste deel van de financiële transacties vindt tegenwoordig zelfs plaats via computerprogramma's, wist je dat?" vraagt Broersen. "Nu we een deel van onze verantwoordelijkheden uit handen geven, moeten we de vraag stellen hoe we robots morele afwegingen kunnen laten maken, waarbij bijvoorbeeld ethische en sociale inschattingen een rol spelen."

Domme computers

Broersen ziet een maakbaar perspectief. "Ik neem afstand van doemdenkers die waarschuwen voor de gevaren van Artificiële Intelligentie (AI). Zij overdrijven vaak en doen nogal ongefundeerde, haast apocalyptische voorspellingen. Ze weten niets van de praktijk van AI. Zo waarschuwen ze voor superintelligentie, terwijl het probleem juist is dat we neigen tot het delegeren van verantwoordelijkheden aan te domme machines. Natuurlijk, de AI-systemen worden steeds sneller, maar dat wil niet zeggen dat ze evenzoveel slimmer worden. Integendeel misschien. Bij zo'n systeem wegen in principe alle morele overwegingen even zwaar. Daar moeten we dus wat aan doen."

tekst: Youetta Visser