Hvad er kunstig intelligens | Hvad kan vi (og er det farligt?)

The Matrix, Westworld, I, Robot, Terminator, Bladerunner og så videre. Fælles for disse film og serie samt mange andre er temaet om robotterne der (forsøger) at overtage verden.

Idéen om at robotter kan overtage muliggøres i filmene ved at man har opfundet AI, som gør robotterne til selvstændige tænkende væsener.

Følger man en smule med i teknologi nyheder, så vil man vide at Google, OpenAI og flere større virksomheder har gjort nogle store skridt i udviklingen af AI. Men betyder det at vi skal være bekymrede for at robotter overtager verden?

Jeg fortæller i denne artikel, hvorfor vi jeg ikke mener vi behøver at være bekymrede for at robotter overtager jorden. Og hvorfor vi skal være bekymrede for en række andre områder.

Hvad er kunstig intelligens?

Der er meget begrebsforvirring på dette område, så lad os starte med en definition.

Hvad er kunstig intelligens?
Kunstig intelligens er et felt indenfor datalogi som beskæftiger sig med at få computeren til at udføre opgaver, baseret på beregninger der minder om menneskets tænkeevne. Der arbejdes med at sætte computeren i stand til at foretage mere avancerede opgaver end computeren kan i dag.

Det er vigtigt at få defineret nogle forskellige teknologier, hvis vi skal kunne blive klogere eller diskutere kunstig intelligens på en velinformeret måde.

For det første, så er kunstig intelligens ikke det samme som kunstige følelser. Følelser er det vi mennesker bruger som motiv for at handle som vi gør, om det er ønsket om at blive rigere, blive mere elsket og så videre, så har de fleste af vores handlinger et rationale i vores følelser.

Det er selvfølgelig noget forsimplet, for mennesker har også drifter og almen rationale, som trodser vores følelser og drifter. Det fungerer som motiv for vores handlinger. Men for at gøre det lettere kalder vi det for følelser.

Hvorfor vil robotterne ikke overtage verden?

Maskiner har ikke mulighed for selv at føle og dermed har maskinerne ikke mulighed for at selv-motivere egne handlinger. En robot vil godt kunne lave forudsete handlinger, men det er baseret på de mennesker der har fremstillet dem, som har lavet fejl eller manglende begrænsninger.

I filmen “I, Robot” opstår problemet med robotterne, fordi deres begrænsning om altid at beskytte mennesket bliver kompromitteret, fordi menneskeheden er den største trussel mod sig selv.

Men sådan fungerer robotter eller maskiner ikke – i hvert fald ikke medmindre man kan opfinde kunstige følelser.

Det er svært at forestille sig om det kan lade sig gøre at skabe kunstige følelser, men det er helt banalt set en diskussion om, hvorvidt der er mere til menneskers følelser end blot en lille elektrisk ladning de korrekte steder i hjernen. Uafhængigt, hvad man tænker i forhold til det dilemma, så er vi meget langt fra det scenario.

Der er to grene indenfor tænkningen om kunstig intelligens:

  1. Blød AI – her mener man ikke computeren kommer til at kunne gøre alt hvad et menneske kan gøre.
  2. Hård AI – her mener man at mennesket alene er atomer og kemi, og at det derfor er muligt for computeren 100% at gøre alt det et menneske kan. Med tiden.

Som du kan se hører mig til dem der tror at hård AI ikke er mulig.

Det største AI problem er data!

Facebook, Google, Microsoft, det amerikanske netdoktor og så videre…. Skandalerne er mange i forhold til data sikkerhed. Der er efterhånden så mange forskellige cases, hvor data er blevet lækket, solgt eller videregivet. Og data er ikke længere bare et spørgsmål om hvilke reklamer du får på Facebook.

Data kan ændre valgkampe, data kan forudsige sygdomme, graviditeter, hvornår du cirka dør og så videre. Og når data kan det, så kan virksomhederne som har disse data det også.

Det virker surealistisk, men der er fx eksempler fra USA, hvor unge kvinder har følt sig lidt sløje. Derefter har de besøgt den amerikanske version af netdoktor. Denne side har solgt oplysninger om deres besøgende til fx Walmart, hvorefter nogle af disse kvinder fik tilsendt babypakker.

På grund af dette data kunne virksomhederne finde frem til at kvinderne var gravide, før de selv vidste det.

Det er ikke for at vi skal finde sølvpapirshattene frem og flytte langt væk fra al teknologi, men det betyder vi skal tage stilling til vores færden på nettet og hvor langt vi vil tillade virksomhederne at bruge det data de har.

Manglende etisk regelsæt for brugen af AI

Den nye persondatalovgivning i EU er en klar forbedring for private folks privatliv, men der er stadig plads til megen forbedring i resten af verden, men også i EU.

Det er ikke for at udnævne Google som den store bølle for tiden, men på grund af at Google er førende i forhold til AI er det to cases fra dem vi fremhæver her.

  • Eksempel 1:
    Google har ved hjælp af AI gjort det muligt at vurdere hvor stor sandsynlighed der er for at en patient dør.
  • Eksempel 2:
    Den nye version af Android kommer med en forbedret udgave af Google assistenten. Den nye Google assistent er blevet omdrejningspunkt for en større etisk diskussion, fordi at assistenten ved hjælp af machine learning har lært at efterligne mennesker i sådan en grad, at det nærmest er umuligt at kende forskel på menneske og maskine.
    Helt konkret er det en feature, hvor du kan få assistenten til at booke fx en tid ved frisøren for dig. Det vil forløbe på den måde, at du siger “Hej Google book en tid ved eks Frisør Hansen på Nørrebro på torsdag mellem 10 og 14. Så finder assistenten selv nummeret og ringer til frisøren ikke med dit nummer men med assistentens eget.
    Her præsenterer den sig så som din assistent og booker en tid.

    Det er i sig selv ikke et problem, men fordi at Google har haft så meget data til rådighed kombineret med machine learning, så kan man ikke høre forskel på et almindeligt menneske og Googles maskine.

    Hør eksemplet i praksis i videoen herunder:
    Det er jo en meget lækker feature for os brugere af Google assistenten, men det fordrer et spørgsmål om moral; må en maskine lade som om at den er et menneske?

  • Eksempel 3:
    En forsker har udviklet et program der med temmelig god nøjagtighed kan vurdere om en person er homoseksuel. Programmet kan bruge data fra fx offentlige kameraer til at vurdere sandsynligheden for homoseksualitet. Forskeren har udviklet det uden et normativt projekt, så det skal som sådan ikke bruges positivt eller negativt. Men programmet kan have nogle forfærdelige konsekvenser særligt hvis det bliver forbedret.
    Homoseksuelle rettigheder er i forvejen pressede i flere lande og i nogle er der sågar fængsels- eller dødsstraf for at være homoseksuel. Hvis et sådan land eller diktator får fingrene i dette program vil det kunne betyde en større forfølgelse af homoseksuelle og sådan et tilfælde vil det med største sandsynlighed betyde tab af menneskeliv.

Hvordan kan der opstå et problem med AI teknologien?

Problemet med AI, machine learning og deep learning er, at vi nu begynder at kunne bruge maskiner til at behandle data i meget større mængder end vi tidligere har kunnet.

Tidligere har vi været nød til at bearbejde data selv med menneskekraft, men mere avancerede computerprogrammer har gjort dette meget lettere. Internettet er et slaraffenland for indsamling af data, fordi vi betror det meste af vores private data til virksomheder bag apps, computere og mobiler.

Det er derfor vigtigt, at vi har whistle blowers og personer som tør sætte spørgsmålstegn ved brugen af data.