- 11:00
- Fresh! Top 30
- 13:00
- Хитовете днес
- 01:00
- Хитовете днес
- 20:00
- Fresh! Top 30
- 22:00
- Хитовете днес
Търси в сайта...
Създателите на ИИ: Това е заплаха, сравнима с пандемия и ядрена война
Шефовете на водещи разработчици на изкуствен интелект, вкл. OpenAI, Google DeepMind, Anthropic и други AI лаборатории предупредиха, че технологиите, върху които работят, могат да застрашат съществуването на човечеството и затова трябва да бъдат категоризирани като социални рискове заедно с пандемиите и ядрените войни.
"Намаляването на риска от изчезване [на човечеството] поради изкуствен интелект трябва да бъде глобален приоритет заедно с други обществени рискове като пандемии и ядрени войни", гласи отворено писмо от лидери в AI индустрията, цитирано от TechNews.bg.
Очаква се документът да бъде публикуван от организацията с нестопанска цел Center for AI Safety. Той вече е подписан от над 350 ръководители на компании за изкуствен интелект, изследователи и инженери в тази област, съобщи Ню Йорк Таймс.
Сред подписалите документа личат имената на Сам Алтман (OpenAI), Демис Хасабис (Google DeepMind), Дарио Амодей (Anthropic), Джефри Хинтън и Йошуа Бенгио – двама от носителите на наградата Тюринг, считани за кръстници на модерния изкуствен интелект. Третият носител на наградата – Ян Лекун, ръководител на AI изследванията в Meta, все още не е подписал писмото.
Има нарастваща загриженост в обществото относно по-нататъшното развитие на системите с изкуствен интелект. Смята се, че платформи от мащаба на ChatGPT могат да се използват за разпространение на дезинформация и пропаганда.
Освен това само в Европа и Съединените щати около 300 милиона души могат да загубят работата си поради навлизането на изкуствения интелект в бизнеса. Тези страхове се споделят от лидерите в индустрията, които се поставят в необичайната позиция да твърдят, че технологиите, които разработват, крият сериозни рискове и трябва да бъдат строго регулирани от държавата.
Някои скептици смятат, че AI технологиите все още са твърде незрели, за да представляват осезаема заплаха за човечеството, така че трябва да се съсредоточим върху краткосрочни проблеми като пристрастните и неправилни отговори на AI системите.
Други анализатори вярват, че AI, сравним с човешките способности, ще се появи в близко бъдеще. За да се избегнат възможни негативни последици, лидерите в индустрията предлагат създаване на организация за регулиране на изкуствения интелект – нещо като аналог на Международната агенция за атомна енергия (МААЕ), която се опитва да предотврати разпространението и използването на ядрени оръжия.
През март повече от хиляда изследователи и представители на индустрията подписаха отворено писмо, което призова за шестмесечно спиране на разработката на напреднали AI системи, обявявайки ги за заплаха за човечеството.
"Мисля, че ако нещо се обърка с тази технология, тогава всичко ще бъде напълно различно. И ние искаме да го обявим. Искаме да работим с правителството, за да предотвратим това", каза изпълнителният директор на OpenAI Сам Алтман по време на скорошно изслушване в Конгреса на САЩ.