- 00:00
- Хитовете днес
- 07:00
- "Шоуто на Блондинките" с Цвети...
- 10:00
- Шоуто на Тео
- 14:00
- "Абсолютно Fresh!" с DIA
- 18:00
- "Power Request по Fresh!" с Рая
Търси в сайта...
Илон Мъск и над 1000 IT експерти призоваха за пауза в разработките на изкуствения интелект
Илон Мъск, Стив Возняк и повече от 1000 други експерти в сферата на технологиите призоваха за шестмесечен мораториум върху обучението на AI системи, които се представят по-добре от наскоро представения модел GPT-4 на компанията OpenAI. В отворено писмо те предупреждават за потенциални рискове за обществото.
Писмото е публикувано от организацията с нестопанска цел "Future of Life Institute" и е подписано от много известни хора в ИТ индустрията, съобщи technews.bg. Всички те призоваха за "пауза" в разработването на AI, докато не бъдат разработени общи протоколи и стандарти за сигурност за индустрията, чието прилагане ще бъде проверено от независими одитори.
Писмото подчертава, че мощни AI системи трябва да се разработват само след като човечеството е уверено в положителните последици от такова развитие и че свързаните с тях рискове ще бъдат управляеми.
Експертите също така изтъкват потенциални заплахи за обществото и цивилизацията от AI системи, способни да се конкурират с хората, което може да доведе до икономически или политически катаклизми. Затова разработчиците на AI трябва да си сътрудничат тясно с регулаторите.
"Обширни изследвания показват, че системи с изкуствен интелект, които се конкурират с хората, могат да представляват сериозна опасност за цялото човечество", се казва в писмото.
Наскоро дори Европол предупреди, че системи като ChatGPT могат да бъдат използвани злонамерено за фишинг, дезинформация и киберпрестъпления. Илон Мъск, чиято компания за електромобили Tesla използва елементи с изкуствен интелект в системите си за автопилот от доста време, открито и многократно е изразявал загриженост относно опасностите от AI системите.
Поддържаният от Microsoft чатбот ChatGPT на OpenAI демонстрира качества, които принудиха конкурентите спешно да ускорят развитието на собствените си големи езикови модели. В резултат на това компаниите побързаха да интегрират генеративен AI в своите продукти. Ръководителят на OpenAI Сам Алтман не е подписал писмото, а самата компания отказва коментар.
Експертите смятат, че AI разработките трябва да се забавят, докато човечеството започне да разбира по-добре последствията, тъй като системите с изкуствен интелект могат да причинят сериозни щети. Като се има предвид, че големите играчи пазят в тайна информацията за това, върху което работят, ще бъде трудно обществото да се защити, ако страховете са оправдани.