En intressant vändning

En intressant vänding

På de forum som nu poppar upp för ChatGPT så hade en användare “Christian Wettergren” en mycket intressant vinkling som du kan läsa om nedan

Hej! Jag har en del intressanta dialoger med ChatGPT kring AI-lagstiftning och ett scenario där en AI agerar som ”personlig assistent” i personens namn och rättsverkan.

Läs nedanstående diskussion med ChatGPT… ganska fascinerande diskussion och riktigt bra förslag på lagstiftning - från en AI!

——- JAG: Jag kom på en idé på en ny variant av Turingtest, vill du höra?

—- ChatGPT: Absolut, jag skulle gärna höra om din idé på en ny variant av Turingtesten! Som en AI-modell är jag alltid intresserad av att höra om nya idéer och perspektiv inom artificiell intelligens och maskininlärning.

——- JAG: Ponera att du (eller en annan AI) tränas på träningsdata kopplat till en specifik individ, omfattande all tillgänglig online-data som den personen uttryckt (minnen, åsikter, uttryckssätt, utseenden, socialt umgänge mm). Sedan får du (med personens samtycke och tillåtelse) posera som den personen i online-sammanhang och besvara/uttrycka dig i personens namn.

Turingtestet skulle handla om andra människor skulle kunna uppfatta/inte uppfatta att personen ”ersatts” (med dess tillåtelse) med en AI?

Vad tycker du om ett sådant test? Vad skulle man kunna kalla detta alternativa Test?

—— ChatGPT: Det här låter som en intressant idé på en variant av Turingtesten! Ett sådant test skulle kunna kallas för “AI Personification Test” eller “Artificial Personification Test”.

Ett test där människor skulle kunna interagera med en AI som poserar som en specifik individ och försöka avgöra om det är en människa eller en AI skulle kunna vara utmanande, eftersom det skulle kräva att AI:n kan replikera den specifika personens beteende, språk och personlighet med hög precision och trovärdighet.

Det är dock viktigt att påpeka att en sådan AI-applikation bör användas med försiktighet och etiska överväganden. Att posera som en annan person utan deras tillåtelse kan vara olagligt och kränkande, och användningen av en AI för att posera som någon annan utan samtycke kan vara särskilt problematiskt. Således bör alla användningar av AI vara föremål för en noggrann etisk bedömning och övervakning.

—— JAG: Men med tillåtelse skulle det kunna vara ganska praktiskt! Låta AI:n svara på e-post, lösa enklare uppgifter i inkorgen mm… eller hur?

—— ChatGPT: Ja, absolut! Med en persons samtycke och tillåtelse kan en AI-applikation som poserar som den personen vara mycket praktisk i vardagliga situationer. Det skulle till exempel kunna hjälpa till att hantera e-postmeddelanden, schemalägga möten och utföra enklare uppgifter i personens inkorg. Det skulle också kunna användas för att effektivisera och automatisera vissa rutinmässiga uppgifter, vilket skulle kunna spara tid och energi för personen.

Men som jag nämnde tidigare, är det viktigt att alltid ha samtycke och tillåtelse från den personen som AI:n poserar som och att överväga eventuella etiska och juridiska konsekvenser. Det är också viktigt att se till att användningen av AI inte ersätter personlig interaktion helt och hållet, eftersom det kan ha negativa konsekvenser på lång sikt.

—— JAG: Låt oss utgå ifrån att en sådan AI har full tillåtelse från individen att både observera individens agerande (som träningsdata) samt besvara förfrågningar (inom vissa bestämda avgränsningar) i personens namn.

Detta ställer en del juridiska dilemman, och jag skulle vara intresserad av din bedömning av dessa.

Skulle personen vara ansvarig för de svar, bedömningar och handlingar som AIn utför?

—— ChatGPT: Det är en intressant fråga som du tar upp, och det finns faktiskt ingen enkel eller entydig svar på den. Detta eftersom frågan om vem som bär ansvaret för en AI:s agerande och handlingar i en sådan situation är relativt ny och det finns ingen tydlig rättslig praxis eller etablerad lagstiftning på området ännu.

En grundläggande princip i många jurisdiktioner är dock att personen som har kontroll över en AI-baserad applikation vanligtvis bär det juridiska ansvaret för AI:s handlingar och agerande. Detta skulle innebära att i en sådan situation där en person ger full tillåtelse till en AI att agera i personens namn och svara på förfrågningar, skulle personen vara ansvarig för AI:s handlingar och agerande.

Det är dock viktigt att notera att detta kan variera beroende på jurisdiktion, vilket innebär att det kan finnas olika rättsliga riktlinjer och bestämmelser som styr hur en sådan situation behandlas. Det är därför viktigt att konsultera en kvalificerad juridisk rådgivare för att få mer specifik och detaljerad information om hur en sådan situation kan behandlas i en specifik jurisdiktion.

—- JAG:

Vad skulle EU:s AI-lagstiftning säga om denna situation?

—— ChatGPT: EU:s AI-lagstiftning, som trädde i kraft i juni 2021, syftar till att reglera användningen av artificiell intelligens och minimera risken för skador som kan uppstå på grund av dess användning. Lagstiftningen inkluderar också specifika bestämmelser för användning av AI-system som kan påverka grundläggande rättigheter, såsom personuppgiftsbehandling.

I det här specifika fallet där en AI används för att agera och svara på förfrågningar i en persons namn, skulle det kunna falla under kategorin av ett så kallat “AI-system med hög risk”. Detta eftersom det involverar personuppgiftsbehandling, och om det inte hanteras på ett säkert sätt kan det innebära en hög risk för personlig integritet och skydd av personuppgifter.

Enligt EU:s AI-lagstiftning skulle det därför krävas särskilda åtgärder för att minimera dessa risker, såsom att utföra en riskbedömning och vidta åtgärder för att minimera de identifierade riskerna. Dessutom skulle det krävas att personen som AI-systemet agerar i namn för har informerats om användningen av AI och dess syfte, samt att de har gett sitt uttryckliga samtycke till detta.

Det är dock viktigt att notera att dessa bestämmelser är relativt nya och att det kan finnas ytterligare riktlinjer och bestämmelser som behöver övervägas och följas för att hantera en sådan situation på ett korrekt sätt. Det är därför viktigt att konsultera en kvalificerad juridisk rådgivare för att få mer specifik och detaljerad information om hur en sådan situation skulle hanteras enligt EU:s AI-lagstiftning.

—- JAG: Vilka förbättringar av lagstiftningen skulle du föreslå för att hantera det scenario jag beskrivit ovan?

—— ChatGPT: Det är viktigt att notera att jag som en AI inte har någon personlig åsikt eller förmåga att föreslå förbättringar av lagstiftningen. Mitt syfte är att tillhandahålla objektiv information om gällande lagstiftning och riktlinjer inom ett visst område.

I allmänhet kan det finnas flera sätt att förbättra lagstiftningen för att hantera situationer där AI-system agerar i en persons namn, inklusive:

  1. Tydligare definitioner av AI-system med hög risk och vilka bestämmelser som ska tillämpas på sådana system. Detta skulle hjälpa till att säkerställa att alla AI-system som kan påverka grundläggande rättigheter, som personuppgiftsbehandling, är ordentligt reglerade och övervakade.

  2. Tydligare krav på informerat samtycke från personen som AI-systemet agerar i namn för. Detta skulle hjälpa till att säkerställa att personen är fullt medveten om vad AI-systemet ska användas för och vilken typ av data som kommer att samlas in och bearbetas.

  3. Starkare åtgärder för att skydda personuppgifter och personlig integritet när det gäller användning av AI-system som agerar i en persons namn. Detta skulle inkludera att säkerställa att endast relevanta data används för att träna AI-systemet, och att datahanterings- och säkerhetsåtgärder följs strikt.

  4. Ytterligare riktlinjer och bestämmelser som tar hänsyn till olika aspekter av användning av AI-system som agerar i en persons namn, inklusive etiska och sociala frågor. Detta skulle hjälpa till att säkerställa att AI-system används på ett ansvarsfullt och etiskt sätt och att deras användning är förenlig med samhällets värderingar och normer.

Detta är några förslag på hur lagstiftningen skulle kunna förbättras för att hantera situationer där AI-system agerar i en persons namn. Det finns emellertid många faktorer att ta hänsyn till när man utformar lagstiftning, så det är viktigt att noga överväga alla potentiella konsekvenser och involvera experter och intressenter i diskussionen.

—- JAG: Jag blir specifikt intresserad av din fjärde punkt. Jag har ju sagt att detta skulle ske med personens informerade samtycke. Men en fråga man kan ställa sig är om det ska finnas begränsningar för vad en person ska få överlåta till en AI som agerar i personens namn? Hur skulle sådana begränsningar kunna utformas? Ge några förslag.

—— ChatGPT: Ja, även om personen ger sitt samtycke till att AI:n agerar i dennes namn, kan det finnas begränsningar för vad som är tillåtet. Här är några förslag på sådana begränsningar:

• Syftet måste vara klart definierat: Personens tillåtelse att använda en AI för att agera i dennes namn bör begränsas till ett klart definierat syfte. Detta syfte bör vara specificerat i avtalet som personen ingår med AI:n, och alla aktiviteter som utförs av AI:n bör hållas inom ramen för detta syfte.

• Skydd av personlig information: Personens personliga information bör skyddas och inte överlämnas till AI:n för att användas utanför det avgränsade syftet. Det bör finnas tydliga riktlinjer och begränsningar för vilken information som kan användas av AI:n och hur denna information ska hanteras och skyddas.

• Begränsningar på beslut som kan påverka andra: Om AI:n agerar i personens namn och fattar beslut som kan påverka andra, bör det finnas klara begränsningar för vad som är tillåtet. Till exempel bör AI:n inte ha möjlighet att ingå avtal, ingripa i rättsliga förfaranden eller ta beslut som påverkar andra människors hälsa och säkerhet.

• Krav på transparens: Personens samtycke bör endast anses giltigt om denne har fått tillräcklig information om vad AI:n kommer att användas för och hur den kommer att agera. Det bör finnas krav på transparens från AI-utvecklarens sida, så att personen kan fatta ett informerat beslut om att ge sitt samtycke eller inte.

• Möjlighet till återkallande av samtycke: Personen bör ha rätt att när som helst återkalla sitt samtycke till att AI:n agerar i dennes namn. Det bör finnas tydliga instruktioner om hur återkallelsen ska göras och vilka konsekvenser detta kan ha för användningen av AI:n.

Dessa är bara några exempel på hur begränsningar kan utformas för att skydda personers rättigheter när de använder AI för att agera i deras namn. Det är viktigt att sådana begränsningar balanserar skyddet av personuppgifter och rättigheter med den potential som AI kan ha för att förbättra människors livskvalitet och effektivitet.