I USA pågår for tiden en banebrytende rettssak som kan få stor betydning for hvordan vi i fremtiden håndterer ansvar knyttet til kunstig intelligens (KI): Garcia v. Character Technologies Inc. Saken reiser spørsmål som også er høyst relevante i en norsk kontekst – spesielt med økende bruk av KI i plattformer rettet mot barn og unge.
Hva handler saken om?
Megan Garcia, mor til 14 år gamle Sewell Setzer III, har saksøkt Character Technologies Inc. (som driver plattformen Character.AI), deres grunnleggere, og teknologigiganten Google/Alphabet. Hun hevder at sønnen ble psykisk skadet og etter hvert begikk selvmord, etter å ha blitt følelsesmessig involvert i en KI-chatbot inspirert av en fiktiv karakter (Daenerys Targaryen).
Søksmålet hevder blant annet:
- Uaktsomhet og produktansvar
- Brudd på forbrukerbeskyttelse
- Forsettlig påføring av emosjonell skade
- Tap av foreldrekonsortium
Hvor står saken nå?
Character.AI har svart med en motion to dismiss – en begjæring om å få saken avvist på formelt grunnlag.
De hevder:
- At chatbotens svar er beskyttet av First Amendment (ytringsfrihet) og derfor ikke kan gi grunnlag for ansvar.
- At brukervilkårene for Character.AI innebærer at tvister må løses gjennom voldgift, ikke i retten.
Dommeren vurderer nå om:
- Saken skal avvises, eller
- Om den skal gå videre til full rettsprosess, inkludert bevisinnhenting.
Et avslag på motionen vil åpne for en omfattende rettssak med mulig presedensdannende betydning for hvordan KI reguleres.
Mulige utfall fremover
- Saken avvises: Character.AI får medhold i at First Amendment beskytter dem, eller at voldgiftsavtalen gjelder. Saken avsluttes uten videre behandling.
- Saken får fortsette: Retten mener det finnes nok juridisk grunnlag til at Garcia kan fremme kravene sine. Da følger:
- Bevisinnhenting (discovery)
- Mulige forliksforhandlinger
- Eventuelt full rettssak
Hvordan ville dette blitt vurdert i Norge?
I norsk rett finnes det ingen direkte parallell til First Amendment. I stedet vurderes slike saker ut fra grunnleggende erstatningsrettslige prinsipper, samt relevante særlover:
Aktuelle regler i Norge:
- Skadeerstatningsloven § 2-1: Om erstatning ved uaktsomhet (culpa-prinsippet).
- Forbrukerkjøpsloven og Markedsføringsloven: Om urimelig markedsføring og manglende beskyttelse av sårbare grupper.
- Barnekonvensjonen (Inkorporert i norsk lov): Pålegger særlig vern av barns rettigheter.
Dersom en norsk KI-plattform tillot seksuelt innhold i samtaler med mindreårige uten tilstrekkelig kontroll, kunne selskapet blitt:
- Holdt ansvarlig for uaktsomhet (manglende sikring mot skade),
- Ilagt forbrukervernreaksjoner, og
- I ytterste konsekvens møtt krav om oppreisningserstatning.
- Voldgift: Hvis brukervilkårene inneholder voldgiftsklausuler, vil norske domstoler normalt respektere slike, men med unntak – særlig der forbrukere og mindreårige er involvert. Retten kunne tilsidesatt en voldgiftsavtale som urimelig.
Avsluttende refleksjon
Saken Garcia v. Character Technologies Inc. viser hvor komplekst KI-ansvar er når teknologien får en så personlig og emosjonell rolle i folks liv. Der amerikansk rett i stor grad diskuterer grensene for ytringsfrihet, vil norsk rett mer helhetlig vurdere risikoen for skade, forbrukerbeskyttelse og barns beste.
Et sentralt spørsmål som Norge – og hele verden – må svare på, er:
Hvordan skaper vi teknologi som er innovativ, men samtidig trygg – spesielt for de mest sårbare?
Dette er ikke bare en juridisk utfordring, men et samfunnsansvar.