Een vraag die wij ons moeten stellen is: welke keuzes maken wij bij het programmeren van AI? Uiteindelijk maken wij bepaalde keuzes bij het programmeren van AI (en dus het programmeren van intelligente robots!). De Wetten van Aasimov zijn hier goede voorbeelden van. Welke keuzes maken wij om de veiligheid van de mens te garanderen? Welke keuzes maken wij om, bijvoorbeeld, een politierobot goed te laten werken?
Artificial Intelligence, in het Nederlands ‘kunstmatige intelligentie’, wordt vaak als ‘AI’ afgekort. AI is door de mens ontwikkeld om problemen op te lossen, of om taken te versimpelen. Denk aan het zoeken en verzamelen van informatie, of het bewerken van foto’s. Het schrijven van een computerprogramma met intelligentie, leek heel lang een grote uitdaging, maar lijkt steeds beter mogelijk.
Vooroordelen
Het gevolg van het maken van deze keuzes, is dat AI met bepaalde vooroordelen kunnen worden geprogrammeerd. Je zou met AI een afbeelding kunnen laten maken van een zebra. Daarvoor moet de AI geprogrammeerd worden met een soort ‘vooroordeel’, bijvoorbeeld dat een zebra zwartwitte strepen, vier benen en een staart heeft en lijkt op een paard. Vooroordelen zijn (meestal negatieve) meningen over een persoon of groep mensen, die wij over die persoon of groep mensen hebben door hun (uiterlijke) kenmerken. Een positief vooroordeel zou zijn dat je alle mensen die Nike schoenen dragen heel vriendelijk vindt. Een negatief vooroordeel zou zijn dat je alle mannen met lang blond haar dom zou vinden.
Bij het programmeren van AI moeten we heel erg oppassen met welke keuzes we maken, omdat vooroordelen vaak kunnen leiden tot discriminatie, racisme en seksisme: wat als een politierobot een vooroordeel heeft over een persoon met een bepaalde huidskleur? Wat als een docentrobot een vooroordeel heeft over leerlingen met brillen? Dat zou erg onwenselijk zijn.