Samsungin työntekijät vuotivat vahingossa yksityisten yritysten tietoja ChatGPT: n kautta – esimerkki siitä, miksi tekoäly on niin suuri uhka yksityisyydelle ja turvallisuudellesi.

ChatGPT: stä on tullut merkittävä tietoturva- ja tietosuojaongelma, koska liian monet meistä jakavat hajamielisesti yksityisiä tietojaan siitä. ChatGPT kirjaa lokiin jokaisen keskustelun, jonka sen kanssa käyt, mukaan lukien kaikki jakamasi henkilökohtaiset tiedot. Et kuitenkaan tietäisi tätä, ellet ole tutustunut OpenAI: n tietosuojakäytäntöön, käyttöehtoihin ja UKK-sivuun.

Omien tietojen vuotaminen on riittävän vaarallista, mutta koska suuret yritykset käyttävät ChatGPT: tä tietojen käsittelyyn päivittäin, tämä voi olla tietovuotokatastrofin alku.

Samsung vuotanut luottamuksellisia tietoja ChatGPT: n kautta

Mukaan Gizmodo, Samsungin työntekijät vuotivat luottamuksellisia tietoja vahingossa ChatGPT: n kautta kolme kertaa 20 päivän aikana. Tämä on vain yksi esimerkki siitä, kuinka helppoa yritysten on vaarantaa yksityisiä tietoja.

instagram viewer

ChatGPT on julkisesti kritisoitu yksityisyysongelmistaan, joten Samsungin antaminen tämän tapahtua on huomattavan huolimaton. Jotkut maat ovat jopa kieltäneet ChatGPT: n suojellakseen kansalaisiaan, kunnes se parantaa sen yksityisyyttä, joten luulisi yritysten olevan huolellisempia sen suhteen, kuinka heidän henkilöstönsä käyttää sitä.

Onneksi Samsungin asiakkaat näyttävät olevan turvassa – ainakin toistaiseksi. Rikkoutuneet tiedot koskevat vain työntekijöiden toimittamia sisäisiä liiketoimintakäytäntöjä, tiettyä vianetsintäkoodia ja tiimikokouksen pöytäkirjaa. Henkilökunnan olisi kuitenkin ollut yhtä helppoa vuotaa kuluttajien henkilötietoja, ja on vain ajan kysymys, milloin näemme toisen yrityksen tekevän juuri niin. Jos näin tapahtuu, voimme odottaa näkevämme phishing-huijausten valtava lisääntyminen ja identiteettivarkaudet.

Tässä on myös toinen riskikerros. Jos työntekijät etsivät ChatGPT: tä vikoja, kuten he tekivät Samsungin vuodon yhteydessä, myös heidän chat-ruutuun kirjoittamansa koodi tallennetaan OpenAI: n palvelimille. Tämä voi johtaa rikkomuksiin, joilla on valtava vaikutus yrityksiin, jotka etsivät julkaisemattomia tuotteita ja ohjelmia. Saatamme jopa nähdä tietoja, kuten julkaisemattomia liiketoimintasuunnitelmia, tulevia julkaisuja ja prototyyppejä, vuotaneen, mikä johtaa valtaviin tulonmenetyksiin.

Kuinka ChatGPT-tietovuotoja tapahtuu?

ChatGPT: n tietosuojakäytäntö tekee selväksi, että se tallentaa keskustelusi ja jakaa lokit muiden yritysten ja tekoälykouluttajiensa kanssa. Kun joku (esimerkiksi Samsungin työntekijä) kirjoittaa luottamuksellisia tietoja valintaikkunaan, ne tallennetaan ja tallennetaan ChatGPT: n palvelimille.

On erittäin epätodennäköistä, että työntekijät ovat tehneet tämän tarkoituksella, mutta se on pelottava osa. Suurin osa tietoturvaloukkauksista johtuu inhimillisistä virheistä. Usein tämä johtuu siitä, että yritys ei ole onnistunut kouluttamaan henkilöstöään tietosuojariskeistä, jotka liittyvät tekoälyn kaltaisten työkalujen käyttöön.

Jos he esimerkiksi liittävät suuren yhteystietoluettelon keskusteluun ja pyytävät tekoälyä eristämään asiakkaiden puhelinnumerot tiedoista, ChatGPT tallentaa kyseiset nimet ja puhelinnumerot tietueisiinsa. Yksityistietosi ovat yritysten armoilla, joille et ole jakanut niitä, mikä ei välttämättä suojaa niitä tarpeeksi hyvin pitääkseen sinut turvassa. Voit tehdä muutaman asian pidä itsesi turvassa tietomurron jälkeen, mutta yritysten tulee olla vastuussa vuotojen estämisestä.

Tarinan moraali: Älä kerro ChatGPT: lle salaisuuksiasi

Voit käyttää ChatGPT: tä turvallisesti satoihin erilaisiin tehtäviin, mutta luottamuksellisten tietojen järjestäminen ei ole yksi niistä. Sinun on varottava kirjoittamasta chat-ruutuun mitään henkilökohtaista, mukaan lukien nimeäsi, osoitettasi, sähköpostiosoitettasi ja puhelinnumeroasi. Tämän virheen tekeminen on helppoa, joten sinun tulee olla varovainen tarkistaaksesi kehotteet varmistaaksesi, ettei mikään ole vahingossa päässyt sisään.

Samsungin vuoto osoittaa meille, kuinka todellinen ChatGPT-tietovuodon riski on. Valitettavasti näemme enemmän tämän tyyppisiä virheitä, joilla on ehkä paljon suurempi vaikutus, koska tekoälystä tulee keskeinen osa useimpien yritysten prosesseja.