Käytätpä sitten ChatGPT: tä tai muuta chatbotia, sinun on oltava tietoinen mahdollisista uhista, jotka kyseenalaistavat tietosuojasi.
Chatbotit ovat olleet olemassa jo vuosia, mutta suurten kielimallien, kuten ChatGPT ja Google Bard, nousu on antanut chatbot-teollisuudelle uuden elämän.
Miljoonat ihmiset käyttävät nyt tekoäly-chatbotteja maailmanlaajuisesti, mutta on olemassa tärkeitä tietosuojariskejä ja huolenaiheita, jotka on pidettävä mielessä, jos haluat kokeilla jotakin näistä työkaluista.
1. Tiedonkeruu
Useimmat ihmiset eivät käytä chatbotteja vain tervehtimään. Nykyaikaiset chatbotit on suunniteltu käsittelemään ja vastaamaan monimutkaisiin kysymyksiin ja pyyntöihin, ja käyttäjät sisällyttävät usein kehotteisiinsa paljon tietoa. Vaikka kysyisit vain yksinkertaisen kysymyksen, et todellakaan halua sen menevän keskustelusi ulkopuolelle.
Mukaan OpenAI: n tukiosio, voit poistaa ChatGPT-chat-lokeja milloin tahansa, ja lokit poistetaan sitten pysyvästi OpenAI: n järjestelmistä 30 päivän kuluttua. Yritys kuitenkin säilyttää ja tarkistaa tietyt chat-lokit, jos ne on merkitty haitallisen tai sopimattoman sisällön vuoksi.
Toinen suosittu AI-chatbot, Claude, pitää myös kirjaa aiemmista keskusteluistasi. Anthropicin tukikeskus toteaa, että Claude seuraa "kehotteitasi ja tulosteitasi tuotteessa tarjotakseen sinulle johdonmukaisen tuotekokemuksen ajan mittaan säätimiesi mukaisesti." Sinä voi poistaa keskustelusi Clauden kanssa, joten se unohtaa, mistä olet puhunut, mutta tämä ei tarkoita, että Anthropic poistaa lokisi välittömästi järjestelmät.
Tämä tietysti herättää kysymyksen: säilytetäänkö tietojani vai ei? Käyttävätkö ChatGPT tai muut chatbotit tietojani?
Mutta huolet eivät lopu tähän.
Kuinka ChatGPT oppii?
Tiedon tarjoamiseksi suuria kielimalleja koulutetaan valtavilla tietomäärillä. Mukaan Science FocusPelkästään ChatGPT-4:lle syötettiin koulutusjaksonsa aikana 300 miljardia sanaa tietoa. Tämä ei ole otettu suoraan muutamista tietosanakirjoista. Pikemminkin chatbot-kehittäjät käyttävät massaa Internetistä saatavaa tietoa malliensa kouluttamiseen. Tämä voi sisältää tietoja kirjoista, elokuvista, artikkeleista, Wikipedia-merkinnöistä, blogikirjoituksista, kommenteista ja jopa arvostelusivustoista.
Muista, että chatbotin kehittäjän tietosuojakäytännöstä riippuen joitain edellä mainituista lähteistä ei välttämättä käytetä koulutuksessa.
Monet ovat kritisoineet ChatGPT: tä väittäen, että se on painajainen yksityisyyden kannalta ChatGPT: hen ei voi luottaa. Miksi näin on?
Täällä asiat hämärtyvät. Jos kysyt ChatGPT-3.5:ltä suoraan, onko sillä pääsy tuotearvosteluihin tai artikkelikommentteihin, saat selkeän negatiivisen vastauksen. Kuten alla olevasta kuvakaappauksesta näet, GPT-3.5 ilmoittaa, että sille ei annettu pääsyä käyttäjien artikkelien kommentteihin tai tuotearvosteluihin koulutuksessaan.
Sen sijaan se koulutettiin käyttämällä "monipuolista tekstiä Internetistä, mukaan lukien verkkosivustot, kirjat, artikkelit ja muu julkisesti saatavilla oleva kirjallinen materiaali syyskuuhun 2021 asti".
Mutta onko sama asia GPT-4:n kohdalla?
Kun kysyimme GPT-4:ltä, meille kerrottiin, että "OpenAI ei käyttänyt tiettyjä käyttäjien arvosteluja, henkilötietoja tai artikkelikommentteja" chatbotin koulutusjakson aikana. Lisäksi GPT-4 kertoi meille, että sen vastaukset luodaan "datassa [se] koulutetuissa malleista, jotka koostuvat pääasiassa kirjoista, artikkeleista ja muusta tekstistä Internetistä."
Kun tutkimme lisää, GPT-4 väitti, että tietty sosiaalisen median sisältö voidaan todellakin sisällyttää sen koulutustietoihin, mutta tekijät pysyvät aina nimettöminä. GPT-4 totesi erityisesti, että "Vaikka Redditin kaltaisten alustojen sisältö olisi osa koulutusdataa, [sillä ei] ole pääsyä tiettyihin kommentteihin, viesteihin tai muihin tietoihin, jotka voidaan linkittää takaisin henkilöön käyttäjä."
Toinen merkittävä osa GPT-4:n vastauksesta on seuraava: "OpenAI ei ole nimenomaisesti listannut kaikkia käytettyjä tietolähteitä." of OpenAI: n olisi tietysti vaikeaa luetella 300 miljardin sanan arvoisia lähteitä, mutta tämä jättää tilaa spekulaatiota.
Vuonna an Ars Technican artikkeli, todettiin, että ChatGPT kerää "henkilökohtaisia tietoja, jotka on saatu ilman lupaa". Samassa artikkelissa kontekstuaalinen eheys mainittiin, käsite, joka viittaa vain jonkun tiedon käyttämiseen siinä kontekstissa, jossa se oli alun perin käytetty. Jos ChatGPT rikkoo tätä kontekstuaalista eheyttä, ihmisten tiedot voivat olla vaarassa.
Toinen huolenaihe tässä on OpenAI: n noudattaminen Yleinen tietosuoja-asetus (GDPR). Tämä on Euroopan unionin toimeenpanema asetus kansalaisten tietojen suojaamiseksi. Useat Euroopan maat, mukaan lukien Italia ja Puola, ovat käynnistäneet ChatGPT: tä koskevia tutkimuksia sen GDPR-vaatimustenmukaisuuden vuoksi. ChatGPT oli lyhyen aikaa jopa kielletty Italiassa yksityisyydensuojan vuoksi.
OpenAI on aiemmin uhannut vetäytyä EU: sta suunniteltujen tekoälysäädösten vuoksi, mutta tämä on sittemmin peruttu.
ChatGPT saattaa olla tämän hetken suurin AI-chatbot, mutta chatbotin tietosuojaongelmat eivät ala eivätkä lopu tästä palveluntarjoajasta. Jos käytät hämärää chatbottia, jonka tietosuojakäytäntö on heikko, keskustelujasi voidaan käyttää väärin tai erittäin arkaluonteisia tietoja voidaan käyttää sen koulutustiedoissa.
2. Datavarkaus
Kuten kaikki verkkotyökalut tai -alustat, chatbotit ovat alttiina tietoverkkorikollisuudelle. Vaikka chatbot teki kaikkensa suojellakseen käyttäjiä ja heidän tietojaan, on aina mahdollisuus, että taitava hakkeri onnistuu tunkeutumaan sen sisäisiin järjestelmiin.
Jos tietty chatbot-palvelu tallensi arkaluontoisia tietojasi, kuten palkkiosi maksutietoja tilaus, yhteystiedot tai vastaava, tämä voidaan varastaa ja käyttää hyväksi, jos kyberhyökkäys esiintyä.
Tämä pätee erityisesti, jos käytät vähemmän turvallista chatbotia, jonka kehittäjät eivät ole investoineet riittävään suojaukseen. Yrityksen sisäisiä järjestelmiä ei vain voida hakkeroida, vaan oma tilisi on vaarassa joutua vaaraan, jos sillä ei ole kirjautumishälytyksiä tai todennuskerrosta.
Nyt kun AI-chatbotit ovat niin suosittuja, kyberrikolliset ovat luonnollisesti ryntäneet käyttämään tätä alaa huijauksiinsa. Väärennetyt ChatGPT-sivustot ja -laajennukset ovat olleet suuri ongelma siitä lähtien, kun OpenAI: n chatbot tuli valtavirtaan vuoden 2022 lopulla, jolloin ihmiset joutuivat huijauksiin ja luovuttivat henkilökohtaisia tietoja legitiimiyden ja luottamus.
Maaliskuussa 2023 MUO raportoi a fake ChatGPT Chrome-laajennus, joka varastaa Facebook-kirjautumiset. Laajennus voi hyödyntää Facebookin takaovea hakkeroidakseen korkean profiilin tilejä ja varastaakseen käyttäjien evästeitä. Tämä on vain yksi esimerkki lukuisista vale ChatGPT-palveluista, jotka on suunniteltu tietämättömien uhrien huijaamiseen.
3. Haittaohjelmatartunta
Jos käytät hämärää chatbottia huomaamattasi, saatat löytää chatbotin tarjoavan sinulle linkkejä haitallisille verkkosivustoille. Ehkä chatbot on ilmoittanut sinulle houkuttelevasta lahjasta tai tarjonnut lähteen jollekin väitteelleen. Jos palvelun ylläpitäjillä on laittomia aikeita, alustan koko tarkoitus voi olla haittaohjelmien ja huijausten levittäminen haitallisten linkkien kautta.
Vaihtoehtoisesti hakkerit voivat vaarantaa laillisen chatbot-palvelun ja käyttää sitä haittaohjelmien levittämiseen. Jos tämä chatbot sattuu olemaan hyvin ihmisiä, tuhannet tai jopa miljoonat käyttäjät altistuvat tälle haittaohjelmalle. Väärennettyjä ChatGPT-sovelluksia on ollut jopa Apple App Storessa, joten on parasta kulkea varovasti.
Yleensä sinun ei pitäisi koskaan napsauttaa chatbotin aiemmin tarjoamia linkkejä käyttää sitä linkkien tarkistussivuston kautta. Tämä voi tuntua ärsyttävältä, mutta on aina parasta varmistaa, että sivusto, jolle sinut ohjataan, ei ole haitallinen.
Älä myöskään koskaan asenna chatbotin laajennuksia ja laajennuksia tarkistamatta ensin niiden laillisuutta. Tutki vähän sovellusta nähdäksesi, onko se arvioitu hyvin, ja tee myös haku sovelluksen kehittäjältä nähdäksesi, löydätkö jotain hämärää.
Chatbotit eivät koske yksityisyysongelmia
Kuten useimmat verkkotyökalut nykyään, chatbotteja on toistuvasti kritisoitu niiden mahdollisista tietoturva- ja tietosuojaan liittyvistä sudenkuopat. Olipa kyseessä chatbot-palveluntarjoaja, joka tekee kulmat käyttäjien turvallisuuden suhteen, tai jatkuvat kyberhyökkäysten ja huijausten riskit, on tärkeää, että tiedät, mitä chatbot-palvelusi kerää sinusta ja käyttääkö se riittävää suojausta toimenpiteet.