IDAs brug af AI og behandling af medlemsdata
IDA bruger AI til at højne medlemsoplevelsen og sikre dig som medlem hurtigt og præcis hjælp. Og når IDA bruger generativ AI og træner LLM’er, tager IDA naturligvis ansvar for at beskytte medlemmernes data mod misbrug og databrud.
IDAs brug af AI i medlemsrådgivningen
Når IDA bruger AI i medlemsrådgivningen fx i forbindelse med en juridisk sag, kan du vælge AI-genererede svar til eller fra.
Hvis du accepterer, at AI må bidrage til at behandle din juridiske sag, vil en specialudviklet AI-agent læse din forespørgsel, kontrollere IDAs kilder og hvis muligt genere svar på din forespørgsel.
Herefter får du præsenteret svaret på din juridiske sag.
Er svaret fra AI-agenten tilstrækkeligt, kan du lade AI-agenten lukke din sag.
Du kan til enhver tid tilsidesætte AI-agentens svar og i stedet få hjælp af en juridisk medarbejder.
Dine data, som benyttes til at generere AI-agentens svar, bliver journaliseret på din juridiske sag i IDAs tilhørende system, og på IDAs AI platform I 30 dage til kontrol og validering.
IDA kontrollerer løbende, at AI-agenten giver dig som medlem det korrekte svar, og vi opdaterer løbende IDAs AI-agenter med de nyeste retningslinjer og lovgivning for det område, som AI-agenten opererer indenfor.
IDAs AI Platform
IDA har udviklet sin egen AI platform som bygger på AutoGen Core, Azure OpenAI og Azure AI Search.
IDAs AI-agenter er testet og udviklet i samarbejde med domæneeksperter for det givne område.
Det betyder, at ved brug af AI indenfor det juridiske felt, vil en række af vores juridiske eksperter have kvalificeret og testet AI-agenten.
Alle IDAs AI-agenter er givet en række begrænsninger til at eliminere hallucination (fejlinformation) og benytter, så vidt muligt, RAG (Retrieval-Augmented Generation) hvor IDAs egne kilder inkluderes i AI’ens generering af svar. Dette sikrer bedre svar til IDAs medlemmer med fornuftige kildehenvisninger til oprindelsen af svaret.
Da IDA benytter sin egen platform og denne benytter Azure OpenAI er der en række foranstaltninger for at sikre medlemsdata imod databrud.
Ved brug af IDAs AI løsninger vil medlemsdata derfor IKKE:
- Være tilgængelig for andre kunder hos Azure OpenAI
- Være tilgængelig for OpenAI (hvis LLM vi benytter)
- Bruges til at forbedre OpenAI modeller
- Bruges til at træne, gentræne, forbedre eller udvikle OpenAIs Service Foundation modeller
- Bruges til at forbedre Microsoft eller tredjepartiers produkter, services uden samtykke eller instruktion fra IDA
Derudover gælder:
"The Azure OpenAI Service is operated by Microsoft as an Azure service; Microsoft hosts the OpenAI models in Microsoft's Azure environment and the Service does NOT interact with any services operated by OpenAI (e.g. ChatGPT, or the OpenAI API)."
Data lagres på IDAs europæiske Azure OpenAI kilde på vores egen Azure tenant.
Internt i Azure OpenAI benyttes altid Microsoft’s AES-256-encryption som standard, og IDA kan til enhver tid slette givne medlemsdata.
Læs mere om sikkerhed og privacy hos Azure