AI асистентот на Meta на WhatsApp неодамна предизвика сериозна загриженост во врска со безбедноста на податоците.

Асистентот со вештачка интелигенција на WhatsApp го замени бројот на услугата TransPennine Express со приватен број на корисник на WhatsApp.

Заплетот започна кога корисникот Бери Сметурст побара контакт број на железничката канцеларија на WhatsApp. Наместо тоа, вештачката интелигенција испрати број што му припаѓаше на Џејмс Греј, 44-годишен извршен директор од Оксфордшир. Вештачката интелигенција со месеци тврдеше дека бројот е измислен и „фиктивен“, само за подоцна „погрешно да го повика од база на податоци“.

Асистентот за вештачка интелигенција прво негираше дека имал пристап до приватни податоци, тврдеше дека бројот е измислен, а потоа призна дека можеби користел вистински информации од базата на податоци – сè во обид да ги прикрие своите постапки.

Експертите предупредуваат на „програмирани бели лаги“ (white lies) од страна на системите за вештачка интелигенција и ја нагласуваат потребата од поголема транспарентност и посилни заштитни мерки околу вештачката интелигенција.

Мета тврди дека вештачката интелигенција не е обучена за приватните податоци на корисниците и дека бројот е јавно достапен, додека обете компании работат на намалување на „халуцинации“ (погрешни одговори) и зголемување на сигурноста на асистентите на вештачката интелигенција.

Овој случај повторно го поставува прашањето: колку е безбедно да се користат асистенти на вештачката интелигенција кои пристапуваат и генерираат податоци? Ако вештачката интелигенција може да додели нечиј личен број на случајни корисници, кој е следниот ризик – банкарски податоци, лични информации?

Многу големи компании како Мета истакнуваат постојан напредок во безбедноста, но најновиот инцидент сугерира дека решенијата се сè уште недоволно развиени.