OpenAI откри дека активно се бори против широко распространетата злоупотреба на своите алатки за вештачка интелигенција од страна на криминални групи од земји како Кина, Русија, Северна Кореја и Иран.

Во извештај објавен претходно, OpenAI објави дека затворила десет големи мрежи за само три месеци, демонстрирајќи ја посветеноста на компанијата во борбата против онлајн заканите.

Хакерите користат вештачка интелигенција за да создадат убедливи онлајн измами. На пример, групи поврзани со Кина користеле вештачка интелигенција за објавување масовни лажни коментари и статии на платформи како TikTok и X, преправајќи се дека се вистински корисници во кампања наречена Sneer Review, објави Informacija.rs.

Кинеските групи, исто така, користеле вештачка интелигенција за генерирање содржина за поларизирачки дискусии во САД, вклучително и создавање лажни профили на американски ветерани за да влијаат на дебатите за теми како што се тарифите, во операција наречена Uncle Spam.

Севернокорејските групи креирале лажни биографии и апликации за работа користејќи вештачка интелигенција. Севернокорејските хакери барале ИТ работни места низ целиот свет, веројатно за да крадат податоци.

Руски групи користеле вештачка интелигенција за развој на малициозен софтвер и планирање сајбер напади, а една операција, ScopeCreep, се фокусирала на создавање малициозен софтвер за кражба на податоци.

Иранската група, STORM-2035 (исто така позната како APT42, Imperial Kitten и TA456), постојано користела вештачка интелигенција за генерирање твитови на шпански и англиски јазик за имиграцијата во САД, независноста на Шкотска и други чувствителни политички прашања. Тие создале лажни профили на социјалните медиуми, честопати со лажни слики од профилот, претставувајќи се како локални жители.

Вештачката интелигенција се користи и во широко распространети измами. Во еден значаен случај, операција веројатно со седиште во Камбоџа, наречена Wrong Number, користела вештачка интелигенција за преведување пораки во шема што ветувала висока плата за едноставни онлајн активности, како што е лајкување објави на социјалните медиуми.

Измамата следеше јасен образец: контакт кој нудел високи плати, градење доверба и создавање возбуда со лажни заработки, и конечно, барање пари од жртвите во замена за наводно поголеми награди. Измамите работеле на повеќе јазици, вклучувајќи англиски, шпански и германски, насочувајќи ги жртвите кон апликации како WhatsApp и Telegram.

OpenAI активно открива и блокира сметки вклучени во овие активности, користејќи вештачка интелигенција и свои истражни тимови, соопшти компанијата. Овој проактивен пристап често значи дека многу од овие злонамерни кампањи постигнале мало или ограничено влијание во реалниот свет пред да бидат блокирани.

Зборувајќи за борбата против злоупотребата на вештачката интелигенција, OpenAI рече дека се соочува со значаен правен предизвик поврзан со приватноста на корисниците. На 13 мај, американски суд му наложи на OpenAI да ги зачува разговорите на ChatGPT. Наредбата произлегува од тужба за повреда на авторски права поднесена од The ​​New York Times и други издавачи, кои тврдат дека OpenAI нелегално користел милиони нивни статии заштитени со авторски права за да ги обучи своите модели. Тие тврдат дека способноста на ChatGPT да ja репродуцира, сумира или имитира нивната содржина без дозвола или надомест го загрозува нивниот бизнис модел.

OpenAI протестираше против наредбата, тврдејќи дека таа ја принудува компанијата да постапи спротивно на својата обврска за приватност на корисниците. Компанијата истакна дека корисниците често споделуваат чувствителни лични информации во разговорите, очекувајќи тие да бидат избришани или да останат приватни. Затоа, барањето на судот претставува многу сложен предизвик за OpenAI.