Стотици технически експерти (а също и Илон Мъск) призовават за пауза и оценка на риска за ИИ развитие

  Създаден от AI коридор от код в Матрицата

Когато Илон Мъск, съоснователят на Apple Стив Возняк и над 500 технически експерти подписват отворено писмо, призоваващо за незабавна пауза в разработването на изкуствен интелект (AI), знаете, че проблемът е по-сериозен от случай на гледане на твърде много научна фантастика филми. Докато A.I. превземането на света често се отхвърля като невероятно събитие, което се случва само в измислицата, страховете, изразени в писмото, почти граничат с такова събитие. Може да не е непременно толкова драматично, колкото поемането на Ultron или Skynet, но има искрени опасения, че неограниченият A.I. развитието може да доведе до ИИ постепенно замествайки хората .

Това, което изглежда особено мотивира писането и подписването на писмото, беше неотдавнашното разработване и ранното пускане на Multimodal Large Language Model (MLLM) на OpenAI, GPT-4. MLLM е A.I. инструмент, който има способността да интерпретира множество режими на въвеждане, като текст, изображения, видеоклипове и аудио. Освен това, той може да извършва обработка на естествен език (NLP), което означава, че може да разбира и генерира език по подобен начин, както човек може. GPT-4 се предлага в ограничена форма, наречена ChatGPT Plus, която вече е налична предизвика различни спорове .

името на чудовището д-р Франкенщайн

Противоречието варира от притеснения относно студентите, които използват ChatGPT за измама до откриване на пристрастия в ChatGPT до вреда, произтичаща от предоставянето на неправилни отговори от ChatGPT до потенциала на ChatGPT да започне да замества хората в определени професии. Сега, когато OpenAI вече напредва с разработването на надстройка, GPT-5, техническите експерти бият тревога.

Технически експерти (и Илон Мъск) подписват отворено писмо за спиране и оценка на ИИ. развитие

Отворено писмо е публикуван чрез Future of Life Institute , организация с нестопанска цел, посветена на осигуряването на защита срещу глобални катастрофи, включително хипотетичната заплаха от ИИ. Писмото е събрало 1324 подписа към написването на тази статия, включително от стотици технически експерти и дори съоснователя на OpenAI, Мъск. То очертава факта, че А.И. разработката става все по-нерегулирана, като пускането на GPT-4 създава опасен ИИ. раса. Писмото задава няколко риторични въпроса, които подчертават потенциалните опасности от ИИ. Той гласи:

Съвременните системи за изкуствен интелект сега стават конкурентоспособни на хората при общи задачи и трябва да се запитаме: Трябва позволяваме на машините да наводнят информационните ни канали с пропаганда и неистина? Трябва автоматизираме всички работни места, включително изпълняващите? Трябва развиваме нечовешки умове, които в крайна сметка могат да ни превъзхождат числено, да надхитрят, да остареят и да ни заменят? Трябва рискуваме да загубим контрол над нашата цивилизация?

Той продължи да подчертава, че разработването на по-мощен ИИ. системите не трябва да се движат напред, докато няма сигурност, че ще бъдат от полза и че „рисковете им ще бъдат управляеми“. За да се гарантира, че това ще се случи, писмото предлага шестмесечна пауза в разработването на A.I. който е по-напреднал от GPT-4. По време на паузата писмото препоръчва прилагането на протоколи за безопасност, регулаторни органи, по-строг процес на одит и установяване на отговорности за вреди, причинени от A.I.

един милион майки вселената на стивън

Писмото улови вярванията на по-ревностните скептици на A.I. Някои подписали вярват, че дори GPT-4 вече е много опасен и показва признаци на изкуствен общ интелект, което е способността да се учи и интерпретира света по начин, който е равен на човешките способности. По-малко предпазливите скептици обаче, опроверга тази идея, заявявайки, че GPT-4 дори не се доближава до нивото на човешкия ум. Така че докато много критици на A.I. съгласни с необходимостта от регулиране и признаване на потенциалните рискове, някои смятат, че идеите, изложени в писмото, са преувеличени.

В крайна сметка много технически експерти се обединяват в съгласие, че опасностите от ИИ. са толкова значими, че изискват незабавна пауза в развитието и реформите в индустрията. Остава да се види дали А.И. лаборатории и независим ИИ. експертите ще се вслушат в призива или ако, както се предполага в писмото, правителството дори ще се намеси, за да се позове на паузата.

(изтъкнато изображение: Warner Bros.)