Търси в сайта...

Илон Мъск и над 1000 IT експерти призоваха за пауза в разработките на изкуствения интелект

Илон Мъск, Стив Возняк и повече от 1000 други експерти в сферата на технологиите призоваха за шестмесечен мораториум върху обучението на AI системи, които се представят по-добре от наскоро представения модел GPT-4 на компанията OpenAI. В отворено писмо те предупреждават за потенциални рискове за обществото.
 
Писмото е публикувано от организацията с нестопанска цел "Future of Life Institute" и е подписано от много известни хора в ИТ индустрията, съобщи technews.bg. Всички те призоваха за "пауза" в разработването на AI, докато не бъдат разработени общи протоколи и стандарти за сигурност за индустрията, чието прилагане ще бъде проверено от независими одитори.
 
Писмото подчертава, че мощни AI системи трябва да се разработват само след като човечеството е уверено в положителните последици от такова развитие и че свързаните с тях рискове ще бъдат управляеми.
 
Експертите също така изтъкват потенциални заплахи за обществото и цивилизацията от AI системи, способни да се конкурират с хората, което може да доведе до икономически или политически катаклизми. Затова разработчиците на AI трябва да си сътрудничат тясно с регулаторите.
 
"Обширни изследвания показват, че системи с изкуствен интелект, които се конкурират с хората, могат да представляват сериозна опасност за цялото човечество", се казва в писмото.
 
Наскоро дори Европол предупреди, че системи като ChatGPT могат да бъдат използвани злонамерено за фишинг, дезинформация и киберпрестъпления. Илон Мъск, чиято компания за електромобили Tesla използва елементи с изкуствен интелект в системите си за автопилот от доста време, открито и многократно е изразявал загриженост относно опасностите от AI системите.
 
Поддържаният от Microsoft чатбот ChatGPT на OpenAI демонстрира качества, които принудиха конкурентите спешно да ускорят развитието на собствените си големи езикови модели. В резултат на това компаниите побързаха да интегрират генеративен AI в своите продукти. Ръководителят на OpenAI Сам Алтман не е подписал писмото, а самата компания отказва коментар.
 
Експертите смятат, че AI разработките трябва да се забавят, докато човечеството започне да разбира по-добре последствията, тъй като системите с изкуствен интелект могат да причинят сериозни щети. Като се има предвид, че големите играчи пазят в тайна информацията за това, върху което работят, ще бъде трудно обществото да се защити, ако страховете са оправдани.

Свързани новини

Алгоритъмът засега се тества ограничено

03.04.2024

Какво се случва с музиката в TikTok?

02.02.2024

Новини от Meta

25.01.2024

Facebook и Instagram стават платени

01.11.2023

Ново във видеоплатформата

20.10.2023


flash