5 SaaS-toolkits om explainable AI te maken

Gepubliceerd op 9-6-2020 door Lauren Maffeo en Quirine Storm van Leeuwen

Met explainable AI kunnen techteams bias voorkomen en eerlijke, nauwkeurige algoritmen maken. Deze SaaS-toolkits helpen je daarbij.

explainable AI

Steeds meer zakelijke beslissingen worden genomen op basis van zelflerende algoritmes. Hoe een AI-systeem tot zijn besluit komt is vaak onduidelijk, waardoor de vraag naar transparantere algoritmes toeneemt.  Explainable AI (XAI) kan in die behoefte voorzien. Ontwikkelaars van machine learning (ML) kunnen hiermee tijdens het hele trainingsproces van algoritmen zien wat de mogelijkheden en beperkingen van die algoritmen zijn. Het risico op bias wordt hierdoor kleiner.

Bias in algoritmen kan grote gevolgen hebben voor eindgebruikers. De consequenties van niet weten hoe AI werkt, zijn uitgebreid gedocumenteerd. Denk bijvoorbeeld aan creditcards met een lagere bestedingslimiet voor vrouwen of het koppelen van recidive aan ras. XAI is dan ook niet langer optioneel.

Als jij AI wilt maken en toepassen in jouw bedrijf, verwacht iedereen, van senior stakeholders tot klanten, dat je kunt uitleggen hoe het werkt. Het goede nieuws? Doordat de vraag naar XAI stijgt, komen er ook steeds meer tools en technieken die je technische team kan gebruiken om aan de slag te gaan met explainable AI. 

Bij het evalueren van de verschillende tools en toolkits:

  • Documenteer eerst de vereisten voor je algoritmes. Bepaal van te voren welke methoden voor eerlijkheid je gaat gebruiken en hoe je deze wilt prioriteren.
  • Probeer niet de perfecte toolkit te vinden voor explainable AI, maar ga voor incrementele implementatie met meerdere tools.
  • Bekijk hoe elke toolkit aansluit bij het zakelijke probleem dat jouw algoritme moet oplossen. De verschillende toolkits ondersteunen verschillende vereisten voor verklaarbaarheid. Als je bijvoorbeeld een algoritme wilt maken om klantbeslissingen te verklaren, moet je geen toolkit gebruiken die bedoeld is voor vereisten op het gebied van wet- en regelgeving.

5 SaaS tools die jij kunt gebruiken om explainable AI te maken

Deze vijf Saas-tools (Software-as-a-Service) kunnen je technische team helpen bij explainable AI. (Ze werden in een recent Gartner-artikel genoemd als voorbeeldtechnieken en -methodologieën die kunnen helpen bij het bouwen van XAI. Het volledige onderzoek is beschikbaar voor klanten van Gartner.)

Let bij de toolkits hieronder met name op de functionaliteit die gericht is op verklaarbaarheid en interpreteerbaarheid. Met het eerste kun je je model controleren tijdens de algoritmetraining en met het tweede kun je de resultaten van het model uitleggen aan stakeholders en klanten. (De producten worden in alfabetische volgorde weergegeven.) 

1. DataRobot

Datarobot AI-voorspelling
Verklaring van voorspellingen door DataRobot (bron)

Met de software van DataRobot kunnen teams intern hun eigen AI-modellen maken en implementeren, zonder hierbij expliciet te programmeren. Als je nog geen data scientist hebt (of je bedrijf zich die niet kan veroorloven), kan DataRobot hiervoor als vervanging fungeren. De tool automatiseert standaard data science taken en helpt klanten specifieke zakelijke problemen op te lossen. United Airlines gebruikte DataRobot bijvoorbeeld om te voorspellen welke klanten de meeste kans hebben op een tassencontrole bij de gate.

Omdat DataRobot machine learning automatiseert, ondersteunt het ook interpreteerbare modellen. De tool beschikt over een modelblauwdruk die laat zien welke verwerkingsstappen elk model vooraf gebruikt om tot de conclusies te komen. Hierdoor is DataRobot met name een goede optie voor teams die modellen maken die moeten voldoen aan regelgeving.

Daarnaast biedt DataRobot verklaringen van voorspellingen, waarin de belangrijkste variabelen worden weergegeven die van invloed zijn op het resultaat van het model voor elke record. Dit is cruciaal, omdat algoritmen tijdens het hele trainingsproces verschillende gewichten toewijzen aan verschillende datapunten, wat dan weer van invloed is op de aanbevelingen. De verklaring van voorspellingen voorkomt mogelijke bias doordat wordt uitgelegd hoe de conclusies van elk algoritme tot stand zijn gekomen.

Prijs: DataRobot biedt aangepaste contracten voor drie jaar op basis van je zakelijke doelen. Bij de keuze voor jouw specifieke softwareconfiguratie word je persoonlijk geholpen door iemand van het data science team van DataRobot.

Meer informatie

2. Google Cloud Platform

transparant AI on Google Cloud Platform
Visualisatie van functiewaarden en interferentiescores in What-If tool (bron)

De Google Cloud-platformservices worden door een miljard mensen gebruikt en zijn dus qua grootte en reikwijdte moeilijk te evenaren. Het platform beschikt ook over een robuuste suite van  tools voor AI en machine learning. In november 2019 is er een explainable AI service bijgekomen, die algoritmische modellen tijdens de hele levenscyclus van het product evalueert.

Functies zoals AutoML Tables en AI Platform bieden transparantie voor de gebruikers, die zo kunnen zien of ze de datasets en/of architectuur van hun modellen moeten verbeteren. Met AutoML Tables of AI Platform krijg je realtime scores voor je modellen, die aangeven hoe bepaalde factoren van invloed zijn op de uiteindelijke resultaten. Als je dit combineert met de functie voor continue feedback van Google Cloud, kun je modelvoorspellingen vergelijken en de prestaties optimaliseren.

De What-If tool van Google Cloud geeft interactieve dashboards weer waarmee gebruikers de voorspellingsmodellen van het AI-platform kunnen bekijken. Deze tool werkt samen met Jupyter en Colab notebooks, en is vooraf geïnstalleerd op AI Platform Notebooks Tensorflow-exemplaren. Als de outputs van je modellen niet overeenkomen met de vereisten van de What-If tool, kun je aanpassingsfuncties in je code definiëren.

Prijs: De explainable AI tools van Google Cloud zijn gratis voor mensen die AutoML Tables of AI Platform al gebruiken.

Meer informatie

3. H2O Driverless AI

Machine learning Driverless
Interpreteerbaarheidsdashboard voor machine learning van H2O Driverless AI (bron)

H20 Driverless AI automatiseert verschillende aspecten van de ML-workflow, zoals validering, tuning, selectie en implementatie van modellen. Het werkt op standaardhardware en is ontworpen voor gebruik met grafische processing units (GPU’s). Dit is een belangrijk verkooppunt, omdat GPU’s een cruciale rol spelen bij deep learning.

Verder biedt H20 Driverless AI machine learning interpretability (MLI) als kernfunctionaliteit. De applicatie biedt het volgende:

  • Shapely (dat laat zien hoe functies rechtstreeks van invloed zijn op de unieke voorspelling van elke rij)
  • k-LIME (dat redencodes en uitleg in het Engels kan genereren voor complexere modellen)
  • Surrogaat beslisbomen (een stroomdiagram dat laat zien hoe een model beslissingen heeft genomen op basis van de oorspronkelijke functies)
  • Partial Dependence plots (met gemiddelde modelvoorspellingen en standaardafwijkingen voor de eerste waarden van functies)

H20 Driverless AI biedt ook de functie ‘disparate impact analysis’. Als een model negatieve effecten oplevert voor specifieke groepen gebruikers, kun je dat model met deze analysefunctie testen op een mogelijke bias. Dit een essentiële functie, omdat bias op verschillende punten tijdens de training van algoritmen in modellen kan binnensluipen.

Prijs: H20 is een open source ML-platform en het gebruik ervan is dus gratis. Driverless AI is een standalone product voor ondernemingen en hiervoor moet wel worden betaald. Het gebruik van dit systeem op Google Cloud kost ongeveer $ 2.281 (circa € 2025) per maand.

Meer informatie

4. IBM Watson OpenScale

AI explainablility
AI explainability 360 open source toolkit van IBM (bron)

Watson is een vraag-en-antwoordsysteem dat door IBM is ontwikkeld. Het schokte de wereld toen het jaren geleden twee ervaren menselijke deelnemers aan het spelprogramma Jeopardy versloeg en daarmee een prijs van $ 1 miljoen won. Tegenwoordig gebruiken bedrijven IBM Watson OpenScale om modellen te bouwen voor het voorspellen van kredietrisico, defecten in activa, claimsverwerking enzovoort.

Watson OpenScale biedt verschillende beheerfuncties voor modellen. Gebruikers worden bijvoorbeeld gewaarschuwd wanneer ‘drift’ wordt aangetroffen in een AI-model. Dat gebeurt wanneer modellen in de productiefase data tegenkomen die verschillen van de data waarop ze zijn getraind. Dergelijke waarschuwingen zijn van groot belang, omdat je bij ‘model drift’ het risico loopt dat er bias wordt geïntroduceerd in een model.

Watson OpenScale biedt ook contrastieve verklaringen voor de classificatiemodellen die je bouwt. Dat betekent dat er pertinente positieven en pertinente negatieven worden weergegeven, die allebei nuttig zijn om het gedrag van elk model te verklaren. Twee typen de-biasing (passief en actief) zijn ook beschikbaar.

Prijs: Watson OpenScale biedt twee soorten abonnementen, op basis van het aantal modellen dat je wilt implementeren en monitoren. De Lite-service is gratis, maar wordt na dertig dagen inactiviteit verwijderd.

Meer informatie

5. Microsoft Azure

explainable AI Microsoft Azure
Explainability framework SDK dashboard van Microsoft Azure (bron)

Microsoft Azure is een cloud computing service waarmee gebruikers applicaties kunnen bouwen, testen, implementeren en beheren. Het ondersteunt een breed scala aan programmeertalen, tools en frameworks binnen en buiten het Microsoft-ecosysteem. Azure bestaat al tien jaar en ondersteunt inmiddels meer dan 600 services.

Gebruikers van de Basic en Enterprise editie van Azure hebben toegang tot de modelinterpreteerbaarheid van het platform. Volgens de documentatie van Azure heeft dit de volgende drie belangrijke voordelen voor gebruikers:

  • Waarden voor het belang van de functie voor ruwe en speciale functies
  • Interpreteerbaarheid op schaal, op echte datasets in de praktijk, tijdens de trainings- en inferentiefasen
  • Interactieve visualisaties om patronen te ontdekken binnen data

Met Azure kun je deze functies globaal op alle data toepassen of alleen op specifieke lokale datapunten. Ook kun je interpreteerbaarheidsmethoden toepassen op globaal gedrag of specifieke voorspellingen.

De modelinterpreteerbaarheid van Azure biedt negen verklaringstechnieken waaruit je kunt kiezen. Zo kun je de verklaringstechniek afstemmen op de techniek die jouw team heeft gebruikt om je model te trainen. Als je bijvoorbeeld de deep learning techniek hebt gebruikt, kun je de SHAP Deep Explainer gebruiken om te kijken wat er precies gebeurt.

Prijs: Azure heeft abonnementen op basis van gebruik, afhankelijk van de regio, het type gebruik, soort facturering enzovoort. Op de website van Azure vind je prijscalculators, prijzen per product en meer. Er is een apart tabblad voor de AI- en machine learning producten van Azure.

Meer informatie

Wil je meer weten? Bekijk dan onze online catalogus met een uitgebreid aanbod aan AI-software.

 


In dit artikel wordt er mogelijk naar producten, programma’s of diensten verwezen die niet in uw land beschikbaar zijn, of die misschien niet voldoen aan de wet- of regelgeving van uw land. Wij raden u aan om de softwareleverancier rechtstreeks te benaderen voor informatie over de beschikbaarheid van de producten en overeenstemming met lokale wetgeving.


Deel dit artikel