April 19, 2024

Samsung-medewerkers lekken per ongeluk gegevens naar ChatGPT nadat de chatbot-blokkering is opgeheven

Samsung-medewerkers lekken per ongeluk gegevens naar ChatGPT nadat de chatbot-blokkering is opgeheven

Het doel van twee van de drie evenementen was het oplossen van codeproblemen

Insiders van de halfgeleiderafdeling van Samsung hebben ten minste drie keer per ongeluk vertrouwelijke bedrijfsgegevens gelekt naar ChatGPT. Dat meldt TechRadar Op dinsdag 4 april.

Samsung hief het verbod op het gebruik van ChatGPT ongeveer drie weken geleden op, hoewel het verbod misschien gerechtvaardigd was omdat het in eerste instantie probeerde te voorkomen dat de gegevens van het bedrijf lekten.

Gizmodo, N.; zijn verslag Ik citeer Koreaanse media en merk op dat twee van de gebeurtenissen bedoeld waren om foutieve code op te lossen. Bij één incident vroeg een Samsung-medewerker de hulp van ChatGPT bij het diagnosticeren van de broncode van een defecte halfgeleiderdatabase. Bij het tweede incident deelde een andere medewerker een geheime code met ChatGPT om reparaties voor defecte apparatuur te zoeken.

In het derde geval zou een medewerker een hele vergadering hebben verzorgd, zodat ChatGPT de notulen van de vergadering kon genereren.

OpenAI slaat gegevens op van ChatGPT-prompts om zijn AI-modellen te verbeteren, tenzij gebruikers van de service zich afmelden. Ik heb eerder gewaarschuwd voor het delen van gevoelige informatie omdat het is zoals ik al zei In grote lijnen wat de dienst doetkan de service “bepaalde prompts niet verwijderen.”

Onderzoeksblogpost van een aanbieder van een platform voor openbaarmaking van gegevens en respons Cyberhaven Hij zegt: “Op 21 maart heeft 8,2% van de werknemers ChatGPT op de werkplek gebruikt, en 6,5% heeft er bedrijfsgegevens in geplakt sinds de lancering” – een opmerkelijk potentieel beveiligingsrisico als dat er al is.

Samsung Semiconductor ontwikkelt nu AI-software voor intern gebruik, maar kan alleen claims gebruiken die maximaal 1.024 miljard groot zijn. -Rappler.com