Жалба срещу ChatGPT за това, че нарича потребител убиец на деца

Чатботът с изкуствен интелект ChatGPT, подобно на други чатботове, има тенденция да „халюцинира“

0
15
ChatGPT
ChatGPT. Снимка: Искра.бг

Австрийската група за защита на личните данни Noyb подаде жалба срещу ChatGPT за изфабрикуване на информация за физически лица, включително фалшива история за това как един потребител може да е убиец на деца, цитира „Политико“.

Чатботът с изкуствен интелект ChatGPT, подобно на други чатботове, има тенденция да „халюцинира“ и да генерира грешна информация за хората, защото използва неправилни данни или прави неправилни предположения от своите данни.

В случая, който е в основата на жалбата, потребител на име Ялмар Холмен попита чатбота през август 2024 г. дали има някаква информация за него, след което ChatGPT представи фалшива история, че е убил две от децата си и се е опитал да убие третото си дете. Отговорът съдържаше верни факти като броя и пола на децата му и името на родния му град.

Фактът, че някой може да прочете този резултат и да повярва, че е истина, е това, което ме плаши най-много“, каза Ялмар Холмен в изявление, споделено от Noyb.

Оттогава OpenAI актуализира ChatGPT, за да търси информация в интернет, когато се пита за индивиди, което означава, че на теория вече няма да се отнася за индивиди, каза Noyb. Но добави, че неправилната информация все още може да бъде част от набора от данни на модела AI.

В жалбата, подадена до норвежкия орган за защита на данните (Datatilsynet), той поиска от органа да глоби OpenAI и да му нареди да изтрие клеветническите резултати и да настрои своя модел за отстраняване на неточни резултати.

Noyb заяви, че съзнателно позволявайки на ChatGPT да произвежда клеветнически резултати, OpenAI нарушава принципа за точност на данните на Общия регламент за защита на данните (GDPR).

ChatGPT представя на потребителите декларация за отказ от отговорност в долната част на основния си интерфейс, която казва, че чатботът може да доведе до фалшиви резултати. Но адвокатът на Noyb за защита на данните Йоаким Сьодерберг каза, че „това не е достатъчно“.

Не можете просто да разпространявате невярна информация и в крайна сметка да добавите малко опровержение, казвайки, че всичко, което сте казали, може просто да не е вярно“, каза той. „GDPR е ясен. Личните данни трябва да бъдат точни. И ако не са, потребителите имат право да ги променят, за да отразят истината“.

Ню Йорк Таймс“ съобщава, че чатботовете измислят информация най-малко в 3% от времето – и до 27%. Други новинарски доклади описват подробно как ChatGPT е измислял истории за хора, включително твърдения за сексуално насилие или подкуп.

Noyb подаде отделна жалба до австрийския орган за защита на данните миналата година заради факта, че ChatGPT съвпадна с рождения ден на основателя на компанията Макс Шремс.

Европейските органи за защита на данните сформираха работна група за ChatGPT през 2023 г., за да координират действията за правоприлагане, свързани с неприкосновеността на личния живот, срещу платформата, която беше разширена до по-обща работна група за ИИ по-рано тази година.

За още новини вижте ТУК

Присъединете се към нашия Телеграм

Абониране
Известие от
guest
2000


0 Comments
стари
нови най-гласувани
Inline Feedbacks
View all comments