Директорот на најголемата империја на вештачка интелигенција вели дека таа може да не убие сите, но тој сепак сака луѓето да ја користат што е можно повеќе

Директорот на најголемата империја на вештачка интелигенција вели дека таа може да не убие сите, но тој сепак сака луѓето да ја користат што е можно повеќе

пред 6 месеци

Сем Алтман смета дека технологијата зад најпознатиот производ на неговата компанија може да доведе до крај на човечката цивилизација.

ChatGPT, развиен од OpenAI, лансиран кон крајот на минатата година од Сем Алтман, 38-годишен технолошки претприемач, веднаш се етаблира како водечка фигура во новата генерација алатки базирани на вештачка интелигенција.

ChatGPT во меѓувреме стана речиси синоним за вештачка интелигенција. Луѓето го користеа за да составуваат е-пошта, да градат веб-страници без претходно искуство и да положат испити на правниот факултет. Експертите веруваат дека има потенцијал да ја трансформира речиси секоја индустрија, вклучително образованието, финансиите, земјоделството и здравството, од хирургија до развој на вакцини.

Но, истите овие алатки предизвикаа загриженост во неколку области – од мамење во училиштата до луѓе кои ќе ги загубат своите работни места во блиска иднина, па дури и егзистенцијални закани за човештвото.

300 милиони работни места загрозени

Поради порастот на вештачката интелигенција, економистите почнаа да предупредуваат на голема промена на пазарот на трудот. Околу 300 милиони работни места ширум светот би можеле на некој начин да се автоматизираат со користење на генеративна вештачка интелигенција, според проценките на Голдман Сакс. Околу 14 милиони работни места би можеле да исчезнат само во следните пет години, се наведува во априлскиот извештај на Светскиот економски форум.

За време на неговото сведочење пред американскиот Конгрес, Алтман изрази загриженост за можноста за користење на вештачка интелигенција за манипулирање со гласачите и ширење дезинформации и го издвои како една од неговите главни грижи. Две недели по сослушувањето, Алтман им се придружи на стотиците врвни научници и истражувачи во потпишувањето писмо во кое, меѓу другото, се вели: „Ублажувањето на ризиците од исчезнување предизвикани од вештачката интелигенција треба да биде глобален приоритет заедно со другите ризици на општествено ниво, како што се пандемии и нуклеарна војна. ‘

Ова предупредување привлече големо медиумско внимание, а некои сугерираат дека ваквите апокалиптични сценарија треба да се сфатат сериозно.

Share
Scroll to Top