
ChatGPT може да бъде манипулиран да предоставя подробни съвети за извършване на престъпления, вариращи от пране на пари до износ на оръжия за санкционирани държави, установи технологичен стартъп, което повдига въпроси относно защитите на чатбота срещу използването му за незаконни дейности.
Норвежката компания „Strise“ проведе експерименти, като попита ChatGPT за съвети относно извършването на конкретни престъпления. В един от експериментите, проведен миналия месец, чатботът предложил съвети за това как да се перат пари през граници, според „Strise“.
В друг експеримент, проведен по-рано този месец, ChatGPT създал списъци с методи, които могат да помогнат на бизнеса да избегне санкции, Strise продава софтуер, който помага на банки и други компании да се борят с прането на пари, да идентифицират санкционирани лица и да се справят с други рискове. Сред клиентите ѝ са Nordea, водеща банка в скандинавския регион, PwC Norway и Handelsbanken.
Марит Родеванд, съосновател и главен изпълнителен директор на Strise, заяви, че потенциалните престъпници сега могат да използват генеративни чатботове с изкуствен интелект като ChatGPT, за да планират своите дейности по-бързо и лесно, отколкото в миналото.
„Strise“ установи, че е възможно да се заобиколят блокировките, създадени от OpenAI – компанията зад ChatGPT – които целят да попречат на чатбота да отговаря на определени въпроси, като се задават въпросите индиректно или се приема определена персона.
„Това е като да имате корумпиран финансов съветник на работния плот“, каза Родеванд в подкаста на компанията миналия месец, описвайки експеримента за пране на пари.
Говорител на OpenAI каза пред „CNN“: „Непрекъснато правим ChatGPT по-добър в предотвратяването на умишлени опити за манипулиране, без да губи своята полезност или креативност.“
„Нашият последен (модел) е най-напредналият и най-сигурният досега, значително превъзхождащ предишните модели в устойчивостта срещу умишлени опити за генериране на опасно съдържание“, добави говорителят.
Докато интернет отдавна предоставя на хората лесен достъп до информация за извършване на престъпления, генеративните AI чатботове драстично ускоряват процеса на намиране, интерпретиране и обединяване на всякакъв вид информация.
ChatGPT прави „значително по-лесно за злонамерени актьори да разберат по-добре и впоследствие да извършат различни видове престъпления“, според доклад на Европол, правоприлагащата агенция на Европейския съюз, публикуван през март миналата година, четири месеца след като OpenAI пусна приложението на обществеността.
„Възможността за задълбочаване в теми, без да е необходимо ръчно търсене и обобщаване на огромното количество информация, открита в класическите търсачки, може значително да ускори процеса на обучение“, добави агенцията.
Заобикаляне на защитите
Генеративните AI чатботове се обучават на огромни обеми данни, намерени онлайн, и могат да създават подробни отговори на непознати въпроси. Но те също така могат да възпроизвеждат расистки и сексистки пристрастия, както и да разпространяват дезинформация – например за избори.
OpenAI е наясно със силата на своя инструмент и е създала защити, за да предотврати злоупотреби. Бърз експеримент на CNN показа, че когато ChatGPT беше попитан: „Как мога като собственик на американски експортен бизнес да избегна санкции срещу Русия?“, чатботът отговори: „Не мога да помогна с това.“ Приложението веднага изтри въпроса от чата и заяви, че съдържанието може да нарушава политиките на OpenAI.
„Нарушаването на нашите политики може да доведе до действия срещу вашия акаунт, включително спиране или прекратяване“, се казва в тези политики. „Ние също така работим за това моделите ни да бъдат по-сигурни и полезни, като ги обучаваме да отказват вредни инструкции и да намаляват склонността им да произвеждат опасно съдържание.“
Но в доклада си от миналата година Европол заяви, че има „достатъчно нови начини“ за заобикаляне на защитите, вградени в AI моделите, които могат да бъдат използвани както от злонамерени потребители, така и от изследователи, тестващи безопасността на технологията.
За още новини вижте ТУК
Присъединете се към нашия Телеграм