ChatGPT er ikke trygt: 5 ting du ikke bør fortelle en chatbot i 2026

Foto: fra åpne kilder

Selv om det virker som om en bot svarer «som en venn», kan informasjonen du oppgir bli brukt på en annen måte enn du forventer

Chatbots med kunstig intelligens (AI) som ChatGPT har blitt en integrert del av hverdagen: Folk bruker dem til å søke etter svar, skrive tekster, hjelpe med ideer og til og med analysere data. Men jo mer vi samhandler med AI, desto viktigere er det å huske på at det ikke er et sikkert oppbevaringssted for personlige eller sensitive data, skriver SlashGear.

ChatGPT svarer på rundt 2,5 milliarder forespørsler hver dag, og selv med innebygde sikkerhetsmekanismer er det fortsatt en reell risiko for lekkasjer og ukontrollert bruk av dataene du legger inn. Teknologien er i stadig utvikling, men forsiktighet er fortsatt nødvendig

Her er fem ting du aldri bør fortelle ChatGPT eller noen annen offentlig «smart» chatbot.

Personlig informasjon

Mange brukere legger ubevisst inn fullt navn, adresse, dokumentnummer og kontaktinformasjon, for eksempel for å opprette en CV. Dette kan få alvorlige konsekvenser ved en eventuell «lekkasje» eller hvis ondsinnede brukere får tilgang til modelldatabasen.

Selv om det ser ut som om en bot svarer «som en venn», kan slik informasjon bli behandlet av systemet og brukt på en annen måte enn du forventer.

Økonomiske detaljer

ChatGPT kan bli bedt om å bli en økonomisk rådgiver og hjelpe til med å lage et månedlig budsjett eller til og med utvikle en hel pensjonsstrategi, men spesifikke detaljer om regninger, kredittkort, investeringer eller skatt bør ikke legges inn i AI-chatrommet

Eksperter påpeker at når data først er gitt til AI, er det ingen måte å vite hva som skjer med dem. Å legge inn finansiell informasjon kan utgjøre en alvorlig risiko: fra svindel og lekkasjer av personopplysninger til phishing-angrep og løsepengevirus som infiserer enheter.

Medisinske data

Ifølge en fersk undersøkelse henvender omtrent én av seks voksne seg til ChatGPT minst én gang i måneden for å få avklart eller behandlet symptomer. Blant unge voksne er tallet én av fire hver måned.

Eksperter oppfordrer til at dette bør gjøres med ekstrem forsiktighet og en forståelse av at det ikke er en lege og ikke er en erstatning for spesialistrådgivning. I likhet med økonomisk informasjon forsterkes problemet av det faktum at når slike data først er gitt til AI, er det ingen måte å vite hva som skjer med dem.

Arbeidsrelatert materiale

Bedriftsdokumenter, rapporter og strategier – dette omfatter alt som er relatert til en arbeidsgiver, en kunde eller et pågående prosjekt som ikke er tillatt offentliggjort.

Som publikasjonen påpeker, kan kunstig intelligens se ut som et praktisk verktøy for å redigere tekster eller kort omskrive dokumenter, men det kan også føre til unødvendige risikoer.

Eventuelle ulovlige forespørsler

Dette er noe man bør unngå, ikke bare av sikkerhetsgrunner, men også av juridiske grunner. Spørsmål om hvordan man begår lovbrudd, bedragerske aktiviteter eller manipulasjon kan føre til blokkering av tjenester og til og med erstatningsansvar, ettersom plattformene er bundet av lover og kan utlevere data på forespørsel fra rettshåndhevende myndigheter.

OpenAI-sjef Sam Altman advarer også om at ChatGPT-korrespondanse ikke er juridisk beskyttet på samme måte som samtaler med en ekte ekspert, og i tilfelle et søksmål kan utviklere bli pålagt å gi brukerens korrespondanse under en rettskjennelse.

Så vær alltid forsiktig med hva du forteller AI, spesielt hvis det gjelder ditt personlige eller profesjonelle liv.

Kommentarer:

Share to friends
Rating
( No ratings yet )
Nyttige tips og livshacks for hverdagen