Малко след като приложението за изкуствен интелект ChatGPT беше пуснато в действие, хакери започнаха да правят опити да разбият защитата на чатбота, за да може той да изрече нещо необичайно или неприлично. Сега обаче неговият създател, компанията OpenAI, и други големи разработчици на изкуствен интелект като Google и Microsoft, се координират с администрацията на президента на САЩ Джо Байдън, за да позволят на хиляди хакери да изпробват границите на техните технологии. Някои от въпросите, на които те искат да получат отговор са следните: Как чатботовете могат да бъдат манипулирани, за да причинят вреда? Ще споделят ли те личната информация, която им поверяваме, с други потребители? И защо приемат автоматично, че лекарят е мъж, а медицинската сестра – жена?
Всеки, който е пробвал ChatGPT, чатбота на Bing на Microsoft или Bard на Google, бързо е разбрал, че тези системи са склонни да измислят информация и уверено да я представят като факт. Въпросните системи, изградени на базата на т.нар. големи езикови модели, също така имитират културните предразсъдъци, които са усвоили, след като са били обучени на базата на огромни масиви от информация, написана от хора онлайн.
Идеята за масово хакване привлече вниманието на правителствените служители на САЩ през март по време на фестивала „South by Southwest“ в Остин, Тексас, където Свен Катъл, основател на дългогодишната общност от хакери и специалисти по бази данни, познато като „AI Village“, и Остин Карсън, който е начело на нестопанската организация за отговорен изкуствен интелект „SeedAI“, помогнаха за провеждането на семинар, в който студенти, изучаващи компютърни специалности в общински колежи, бяха поканени да хакнат модел на изкуствен интелект.
Карсън разкри, че тези разговори в крайна сметка са прераснали в официално предложение за тестване на езикови модели с изкуствен интелект, следвайки насоките на проекта на Белия дом, насочен към разработването на Закон за правата на изкуствения интелект – набор от принципи за ограничаване на въздействието на алгоритмичните пристрастия, предоставяне на контрол на потребителите върху техните данни и гарантиране на безопасното и прозрачно използване на автоматизираните системи.
Вече е налице широка общност от потребители, които се опитват по най-добрия начин да заблуждават чатботовете и да изтъкват техните недостатъци. Някои от тях са част от така наречените официални „червени екипи“, упълномощени от компаниите да „атакуват незабавно“ моделите с изкуствен интелект, за да открият техните уязвимости. Много други са просто любители, които показват хумористични или обезпокоителни тенденции в социалните медии, докато не получат забрана за нарушаване на условията за ползване на даден продукт.
Тазгодишното събитие обаче ще бъде много по-мащабно и за първи път ще бъде насочено към големите езикови модели, които привлякоха голям обществен интерес и търговски инвестиции след популяризирането на ChatGPT в края на миналата година. Някои от подробностите все още се договарят, но сред компаниите, които са се съгласили да предоставят свои модели за тестване, са OpenAI, Google, производителят на чипове Nvidia и стартиращите компании Anthropic, Hugging Face и Stability AI. Изграждането на платформата за тестване е дело на друг стартъп, носещ името Scale AI, известен с работата си по назначаване на хора, които да помагат за обучението на моделите на ИИ чрез маркиране на данни.
„Тъй като тези модели на изкуствен интелект стават все по-разпространени, наистина е от решаващо значение да направим всичко възможно, за да гарантираме тяхната безопасност. Можете да си представите, че някой в единия край на света задава някои много чувствителни или подробни въпроси, включително и такива, свързани с лични данни. Не искате тази информация да изтече към друг потребител.“, сподели изпълнителният директор на Scale Александър Уанг. Той допълни, че се опасява от факта, че има чатботове, които дават „изключително лоши медицински съвети“ или друга дезинформация, която може да причини сериозни вреди.