Корисниците кои брзаат да завршат задача честопати откриваат чувствителни информации на четботови и модели на вештачка интелигенција, не сфаќајќи дека тоа може да биде опасно.

Големите јазични модели, како што се ChatGPT, Gemini и Perplexity, станаа неопходен дел од секојдневниот живот. Иако многу луѓе не ги користат овие алатки директно секој ден, тие веројатно користат некоја услуга што користи модели на вештачка интелигенција во позадина. Сепак, иако овие алатки честопати помагаат и со деловни и со лични задачи, нивната употреба може да претставува закана за безбедноста.

Имено, корисниците кои брзаат да завршат задача честопати откриваат чувствителни информации на четботови и модели на вештачка интелигенција, не сфаќајќи дека тоа може да биде опасно. Иако четботовите не се вистински луѓе, во контекст на приватноста и безбедноста, тие треба да се третираат како такви. Исто како што не би споделувале чувствителни информации со странци на улица, не треба лесно да откривате информации на четботови. Zimo подготви список на работи што не треба да ги споделувате со четботови.

Лични податоци

Никогаш не треба да ги споделувате вашите лични информации како што се вашето име, адреса, број на социјално осигурување, број на лична карта или број на пасош со четботови на вештачка интелигенција. Ова вклучува фотографии од овие документи. Ако користите чатбот за креирање на биографија, подобро е да побарате формулар што ќе го пополните сами, наместо да ги внесувате вашите лични информации во моделот.

Лични финансиски информации

Исто како што се препорачува претпазливост при споделување финансиски информации како што се броеви на кредитни картички, броеви на сметки или лозинки за онлајн банкарство, истото правило важи и за моделите со вештачка интелигенција. Наместо да споделувате вистински лични информации, подобро е да користите измислени примери ако барате совет за кредити или даночни заштеди.

Лозинки и шифри

Откривањето лозинки за пристап до вашите кориснички или деловни сметки е исклучително неодговорно. Исто како што не би им верувале на вашите клучеви на странец, не споделувајте лозинки и кориснички имиња со модели со вештачка интелигенција.

Приватни информации

Моделот со вештачка интелигенција не е место за споделување чувствителни или доверливи информации. Приватните работи како што се лични проблеми, гласини или здравствени и семејни детали не треба да бидат предмет на разговор со моделите со вештачка интелигенција. Не третирајте го како исповедник или пријател на кого можете да ги откриете сите ваши тајни.

Доверливи информации за компании или работодавци

Иако може да изгледа погодно да се користи ChatGPT за изготвување договори или деловни документи, тоа не е безбедно. Истото важи и за споделување доверливи информации, како што се податоци за патенти, прототипови, деловни планови или финансии. Ова е една од причините зошто многу компании го блокираат пристапот до модели на вештачка интелигенција на службени компјутери.

Експлицитна содржина

Дури и ако поставите шега како „како трајно да се ослободите од некого“, тоа може да ве доведе во неволја. Моделите на вештачка интелигенција не само што нема да одговорат на вакви прашања, туку можат автоматски да пријават сомнителни прашања до властите. Затоа, подобро е да се воздржите од такви прашања, без оглед на тонот со кој ги поставувате.

Медицински информации

Многу корисници денес го заменуваат Google со ChatGPT, третирајќи го речиси како личен лекар. Иако е во ред да побарате појаснување за медицински термин, важно е да избегнете споделување лични информации во вашите прашања. Подобро е да поставите општо прашање, како на пример: „Препорачајте вежби за маж во 30-тите години кој има ишијас“.

Ако не сте сигурни дали треба да споделите некоја информација, запрашајте се: „Дали би сакал некој да го објави моето барање онлајн?“ Ако одговорот е „не“, најдобро е да се воздржите од поставување на тоа прашање на моделот на вештачка интелигенција.