Direct naar het hoofdmenu Direct naar de content
Dit artikel wordt u aangeboden door Salesforce
De redactie van Het Financieele Dagblad draagt voor deze inhoud geen verantwoordelijkheid.

‘Mensen aan het roer en Trust Layer vormen de hoekstenen van verantwoord AI-gebruik’ 

Met de snelle opkomst van kunstmatige intelligentie (AI) staan bedrijven voor tal van mogelijkheden en uitdagingen. Terwijl AI-technologieën nieuwe kansen bieden voor innovatie en efficiëntie, groeit ook de bezorgdheid over de ethische en praktische implicaties ervan. In dit snel evoluerende landschap wordt de noodzaak van een verantwoorde benadering van AI steeds urgenter.  

In het zich snel ontwikkelende landschap van kunstmatige intelligentie (AI) begeven bedrijven zich op een terrein vol beloften én gevaren. Zo is er een onderstroom van bezorgdheid over verantwoord gebruik van AI: de ethische en praktische implicaties, de angst voor het verdwijnen van banen en de verspreiding van online misinformatie. Volgens een KPMG-rapport uit 2023 geloven slechts twee op de vijf mensen dat de huidige wet- en regelgeving voldoende zijn om een veilige toepassing van AI te garanderen. Dit gevoel onderstreept een groeiend onbehagen onder het publiek over het toezicht op AI-technologieën.  

Zorgen over AI 

Intussen biedt AI bedrijven talloze mogelijkheden voor innovatie en efficiëntiewinst. Maar, te midden van deze transformatiegolf lijkt een concreet kader voor verantwoorde AI-implementatie afwezig. Hoewel richtlijnen en regelgeving in beweging zijn, bieden ze geen allesomvattende blauwdruk voor ethisch AI-gebruik. Als gevolg daarvan groeit de bezorgdheid over mogelijk misbruik en onbedoelde gevolgen van AI. ‘Die zorgen rondom AI zijn niet nieuw,’ stelt Paula Goldman, Chief Ethical and Human Use Officer bij Salesforce, ‘maar de komst van genAI heeft ze in korte tijd flink vergroot.’ 

Nu AI doordringt in verschillende sectoren, van de gezondheidszorg tot de financiële wereld, wordt de behoefte aan een coherente aanpak voor verantwoorde AI-toepassingen steeds dringender. Salesforce werkt al​ bijna​ ​een decennium​​ ​aan de ontwikkeling van AI in zijn producten. Het bedrijf definieerde in 201​6​ een aantal principes waaraan zijn werk met betrekking tot kunstmatige intelligentie moet voldoen.  

Voor mij betekent verantwoorde of ethische AI dat je nadenkt over hoe je het voordeel van AI voor de maatschappij kunt maximaliseren en hoe je daarbij bijdraagt aan een vangrails voor AI

Paula Goldman
Chief Ethical and Human Use Officer bij Salesforce 

Vangrails en regulering 

Vanuit haar achtergrond in antropologie onderzoekt Goldman al jaren het potentieel van technologie voor maatschappelijk welzijn. Bij Salesforce legt ze zich toe op het verantwoord gebruik en de ethische ontwikkeling van AI. ‘Voor mij betekent verantwoorde of ethische AI dat je nadenkt over hoe je het voordeel van AI voor de maatschappij kunt maximaliseren en hoe je daarbij bijdraagt aan een vangrails voor AI.’ Met deze vangrails doelt Goldman op beschermende grenzen die voorkomen dat AI-systemen onbedoelde schade veroorzaken, zoals discriminatie, privacy-inbreuken of het verspreiden van misinformatie. 

Regulering vormt een belangrijke manier om deze vangrails vast te stellen en te handhaven. ‘AI ontwikkelt zich heel snel en het is belangrijk dat bedrijven samenwerken met alle belanghebbenden om een soort standaarden te creëren rondom AI. Het is niet ideaal als bedrijven dit alleen zouden doen. Het is cruciaal dat we gemeenschappelijke verkeersregels hebben. Of het nu gaat om AI met een hoog risico of om de standaarden rond gegevenstransparantie, of om de standaarden voor verschillende delen van het ecosysteem; het is belangrijk dat de overheid in deze samenwerkingen de handschoen opneemt om heldere wetgeving op te stellen.’  

Principes verantwoorde AI 

Vanwege die snelle ontwikkelingen is juist dat een uitdaging. Wet- en regelgeving moet daarom adaptief zijn en snel kunnen meebewegen met marktontwikkelingen. Goldman is dan ook te spreken over de EU AI Act en de ontwikkelingen die er momenteel in de VS en het VK plaatsvinden. Salesforce is een van de bedrijven, naast onder meer OpenAI, Google en IBM, die zich vrijwillig aan een aantal zelfopgelegde normen voor veiligheid, beveiliging en vertrouwen committeren. Deze principes zijn:  

  • Nauwkeurigheid: nauwkeurigheid is de ruggengraat van betrouwbare en effectieve AI-toepassingen. ‘Zeker wanneer het niet alleen gaat om voorspellende AI, maar om genAI dat ​niet langer alleen ​zelf inhoud creëert ​maar​ ook daadwerkelijk acties kan ondernemen namens ons. Hierin luistert nauwkeurigheid ​nog​ nauw​er​.’  
  • Veiligheid: volgens Goldman gaat dit over het belang om misinformatie, toxiciteit en zorgen over privacy aan te pakken, om zo potentiële schade voor gebruikers te beperken. ‘Neem de grotere chatbots die getraind zijn op het open internet’, geeft ze als voorbeeld. ‘Je wilt niet dat ze beledigende of schadelijke taal overnemen. Je moet een model dus niet alleen trainen, maar ook controleren.’ Hiervoor heeft Salesforce de Trust Layer ontwikkeld, waarover straks meer.  
  • Eerlijkheid: transparantie en integriteit zijn fundamentele aspecten van ethische AI. Goldman benadrukt de noodzaak van duidelijke toestemmingsmechanismen, de herkomst van gegevens en waarheidsgetrouwe weergaven van AI-mogelijkheden om het vertrouwen van gebruikers te bevorderen. ‘Wees bijvoorbeeld helder waar gegevens vandaan komen en wees eerlijk wanneer iemand met een AI-systeem communiceert.’ 
  • Empowerment: AI moet menselijke capaciteiten vergroten in plaats van vervangen. Goldman pleit ervoor om individuen de controle te geven over AI-systemen, met de nadruk op menselijk toezicht en interventie wanneer dat nodig is. Salesforce ontwikkelde het concept ‘Human at the Helm’ (Mens aan het Roer), dat de cruciale rol van menselijke betrokkenheid en toezicht bij AI-technologieën benadrukt. Het is essentieel dat mensen de controle behouden en kunnen ingrijpen wanneer nodig. Dit empowerment van individuen versterkt niet alleen het vertrouwen in AI, maar garandeert ook dat menselijke waarden en ethische overwegingen de kern blijven vormen van technologische vooruitgang. ‘Als we mensen in staat stellen de koers te bepalen en beslissingen te nemen op basis van hun expertise en waarden, kunnen we een toekomst vormgeven waarin AI bijdraagt aan menselijke vooruitgang en welzijn.’ 
  • Duurzaamheid: de impact op het milieu wordt vaak over het hoofd gezien bij de inzet van AI. Goldman benadrukt het belang om de ecologische voetafdruk en het verbruik van hulpbronnen te minimaliseren in verband met AI-activiteiten. ‘Zelf doen we dat bijvoorbeeld door kleinere, meer doelgerichte modellen te bouwen, zodat ze een minder grote ecologische voetafdruk hebben.’  

De Trust Layer stelt klanten in staat zelf ​controle te nemen​ en ​zelf​ ​AI-​system​en aan te passen

Paula Goldman
Chief Ethical and Human Use Officer bij Salesforce 

Trust Layer 

Om deze principes te kunnen borgen in Einstein, het AI-systeem van Salesforce, heeft het bedrijf de Trust Layer ontwikkeld. ‘Dat is een set functies boven op ons generatieve AI-platform. ​‘De Trust Layer stelt klanten in staat zelf ​controle te nemen​ en ​zelf​ ​AI-​system​en aan te passen​​’, legt Goldman uit. De laag omvat een reeks tools, processen en beleidsmaatregelen die zijn ontworpen om de integriteit van gegevens en de ethische implementatie van AI te waarborgen. Met functies als data governance, privacybescherming en controlemechanismen biedt de Trust Layer organisaties de nodige middelen om AI op een verantwoorde manier te gebruiken. Dit helpt niet alleen om de privacy van klanten te beschermen en de naleving van regelgeving te waarborgen, het bevordert ook een cultuur van transparantie en vertrouwen bij gebruikers en belanghebbenden. 

Veiligheidsgaranties 

Een mooi voorbeeld hoe de Trust Layer werkt, zijn de veiligheidsgaranties die Salesforce van nature ingebouwd heeft in het systeem. Een van de meest gehoorde zorgen die Europese, en ook Nederlandse bedrijven immers hebben, is hoe ze weten of hun data veilig zijn. Hoe weten organisaties dat hun data niet worden gebruikt om modellen van derden te trainen en hoe weten ze of hun vertrouwelijke gegevens ook daadwerkelijk vertrouwelijk blijven? ‘Door die ingebouwde veiligheidsgaranties in de Trust Layer kunnen bedrijven er zeker van zijn dat gebruikers alleen die gegevens kunnen inzien die ze in mógen zien en ze zelf aan de controleknoppen kunnen draaien. De Trust Layer is een soort oneindig aanpasbare promptbouwer die Nederlandse bedrijven de mogelijkheid biedt om alle AI-toepassingen vooraf te bekijken, te testen en op een verantwoorde manier op te schalen.’   

Human at the Helm  

Naast de Trust Layer, blijft de mens onmisbaar in bedrijfsprocessen, herhaalt Goldman. ‘Er is veel angst dat banen zullen verdwijnen door AI, maar ik denk dat dit slechts ten dele waar is. Het werk zal veranderen, maar de mens blijft nodig.’ Ze verwijst naar het concept van ‘human in the loop’, waarbij menselijke input of toezicht wordt geïntegreerd in geautomatiseerde processen of besluitvormingssystemen. ‘De volgende evolutie hierin is dat de mens aan het roer staat. Human at the Helm is een reeks ontwerpkeuzes die echt gaan over hoe we mensen de controle over AI kunnen laten houden. Het is ons idee dat louter menselijke betrokkenheid niet goed genoeg is wanneer het gaat om meervoudige acties die AI namens ons uitvoert, zoals bij spraakgestuurde assistenten of chatbots. We hebben echt controlepanelen voor AI nodig – zaken die in ons product zitten, waarmee je duizenden AI-interacties kunt bekijken en samenvoegen om ze op veel verschillende dimensies te kunnen evalueren en eventueel aanpassen.’  

Ik adviseer organisaties om te starten en vervolgens op te schalen. Dat zien wij ook bij klanten: ze starten intern, en leren, verbeteren en optimaliseren voordat ze hun AI naar buiten brengen

Paula Goldman
Chief Ethical and Human Use Officer bij Salesforce 

Valkuilen vermijden  

Nederlandse organisaties die (gen)AI toepassen of dat overwegen, drukt Goldman drie dingen op het hart: ‘Het is heel belangrijk om je partners zorgvuldig te kiezen. Alle kwesties waar we het over hebben gehad, zoals beveiliging, betrouwbaarheid, nauwkeurigheid – alle zaken die in die Trust Layer zitten – zou je over verschillende leveranciers moeten evalueren. Daarnaast adviseer ik organisaties om te starten en vervolgens op te schalen. Die benadering zien we bij veel van onze klanten: ze starten vaak intern en leren, verbeteren en optimaliseren voordat ze hun AI naar buiten brengen. Tot slot zou ik zeggen: zorg ervoor dat er intern altijd mensen zijn die controleren hoe het gebruik van AI gaat en hoe dit beter kan. De technologie verandert zo snel, je wilt die ontwikkelingen bijhouden.’  

Vruchten plukken 

Wanneer een organisatie het verantwoord gebruik van AI goed weet in te richten, zie je dat de productiviteit van werknemers verbetert. ‘En wanneer je het écht goed doet, zie je dat het echt een partnerschap wordt tussen mens en machine die helpt om de creativiteit en het beoordelingsvermogen te vergroten. Bovendien laat het ruimte voor intensievere samenwerking tussen werknemers op complexere kwesties. Maar dat vergt wel dat je je mensen traint om AI echt te integreren in hun dagelijkse werk en activiteiten.’  

Einstein

Salesforce Einstein is de eerste uitgebreide AI voor CRM. Het is een geïntegreerde reeks AI-technologieën die Salesforce Customer 360 slimmer laten werken en die organisaties wereldwijd toegang geven tot AI. Dankzij Einstein kunnen organisaties AI-gericht worden, zodat ze meer inzicht krijgen in hun klanten en ze beter kunnen anticiperen.

Deel op social media