Изкуственият интелект се проявява по хиляди различни начини. Той помага на учените да осмислят огромни масиви от данни. Помага за откриване на финансови измами, управлява автомобилите ни. Подава ни музикални предложения, а чатботовете ни побъркват. И това е само началото.
Способни ли сме да разберем колко бързо ще продължи да се развива изкуственият интелект? И ако отговорът е „не“, това не е ли всъщност Великият филтър?
Парадоксът на Ферми е несъответствието между очевидно високата вероятност за съществуване на напреднали цивилизации и пълната липса на доказателства, че те съществуват. Предложени са много решения за причините, поради които съществува това несъответствие. Една от идеите е “ Великият филтър„.
Великият филтър е хипотетично събитие или ситуация, която възпрепятства интелигентния живот да се превърне в междупланетен и междузвезден и дори води до неговата гибел. Помислете за климатичните промени, ядрената война, ударите на астероиди, експлозиите на свръхнови, епидемиите и още много други неща от арсенала на катаклизмите.
А какво ще кажете за бързото развитие на изкуствения интелект?
В нова статия в Acta Astronautica се разглежда идеята, че изкуственият интелект се превръща в изкуствен свръхинтелект (ASI – Artificial Super Intelligence) и че ASI всъщност е Великият филтър. Заглавието на статията е „Дали изкуственият интелект е Великият филтър, който прави напредналите технически цивилизации редки във Вселената?„. Автор е Майкъл Гарет от катедрата по физика и астрономия в Университета в Манчестър.
„Без практическо регулиране има всички основания да се смята, че ИИ може да представлява сериозна заплаха за бъдещото развитие не само на нашата техническа цивилизация, но и на всички технически цивилизации“, казва Майкъл Гарет, Манчестърски университет.
Някои смятат, че Великият филтър не позволява на технологични видове като нашия да станат многопланетни. Това е лошо, защото при наличието само на един дом даден вид е изложен на по-голям риск от изчезване или застой. Според Гарет без резервна планета видът е поставен в състезание с времето.
„Предполага се, че такъв филтър се появява преди тези цивилизации да могат да развият стабилно многопланетно съществуване. А това навежда на мисълта, че типичната продължителност на живота (L) на една техническа цивилизация е по-малко от 200 години“, пише Гарет.
Ако това е вярно, то може да обясни защо не откриваме никакви технологични сигнатури или други доказателства за ETI (Extraterrestrial Intelligences – извънземни цивилизации). Какво ни казва това за нашата собствена технологична траектория? Ако сме изправени пред 200-годишно ограничение и ако то се дължи на АSI, накъде ни води това?
Гарет подчертава „…критичната необходимост от бързо създаване на регулаторни рамки за развитието на ИИ на Земята и напредъка на многопланетното общество, за да се смекчат подобни екзистенциални заплахи“.
Много учени и други мислители казват, че сме на прага на огромна трансформация. ИИ едва започва да променя начина, по който правим нещата. Голяма част от трансформацията е зад кулисите. Изглежда, че ИИ е на път да ликвидира работните места на милиони хора, а когато се съчетае с роботиката, трансформацията изглежда почти неограничена. Това е съвсем очевидно опасение.
Но има и по-дълбоки, по-систематични опасения. Кой пише алгоритмите? Ще дискриминира ли ИИ по някакъв начин? Почти сигурно. Дали конкурентните алгоритми ще подкопаят мощните демократични общества? Ще останат ли отворените общества отворени? Ще започне ли ИИ да взема решения вместо нас и кой ще носи отговорност, ако това стане?
Това е едно разрастващо се дърво от разклоняващи се въпроси без ясен край.
Да напомним, че Стивън Хокинг (RIP) предупреди, че ИИ може да сложи край на човечеството, ако започне да се развива самостоятелно.
„Страхувам се, че ИИ може напълно да замени хората. Щом като хората създават компютърни вируси, някой ще създаде ИИ, който може да се усъвършенства и репликира. Това ще бъде нова форма на живот, която ще превъзхожда хората“, казва той пред списание Wired през 2017 г. След като ИИ може да надмине хората, той се превръща в ASI.
Хокинг може да е един от най-разпознаваемите гласове, които са отправяли предупреждения за ИИ, но той далеч не е единственият. Медиите са пълни с дискусии и предупреждения, наред със статии за работата, която ИИ върши за нас и вместо нас. В най-тревожните предупреждения се казва, че ASI може да стане неуправляем и злонамерен. Някои хора отхвърлят това като научна фантастика, но не и Гарет.
„Опасенията за това, че изкуственият свръхинтелект (ASI) в крайна сметка ще се разбунтува, се смятат за сериозен проблем. Борбата с тази възможност през следващите няколко години представлява нарастващо изследователско начинание за водещите специалисти в областта“, пише Гарет.
Ако ИИ не предоставяше никакви ползи, въпросът щеше да е много по-лесен. Но той предоставя всякакви ползи – от подобрени медицински изображения и диагностика до по-безопасни транспортни системи. Трикът за правителствата е да позволят на ползите да процъфтяват, като същевременно ограничат вредите.
„Това е особено валидно за области като националната сигурност и отбраната, където отговорното и етично развитие трябва да е от първостепенно значение“, казва още Гарет.
Проблемът е, че ние и нашите правителства не сме подготвени. Никога не е имало нещо подобно на изкуствения интелект. И без значение как се опитваме да го концептуализираме и да разберем траекторията му, ние оставаме неподготвени.
И ако ние сме в това положение, то и всеки друг биологичен вид, който развие ИИ, също би бил в такова положение. Появата на AI, а след това и на ASI, може да е универсална, което я прави кандидат за Великия филтър.
Това е рискът, който ASI представлява в конкретните си измерения. Той може повече да не се нуждае от биологичния живот, който го е създал.
„При достигане на технологична сингулярност ASI системите бързо ще надминат биологичния интелект и ще се развиват с темпове, които напълно изпреварват традиционните механизми за надзор. А това ще доведе до непредвидими и неочаквани последици, които е малко вероятно да бъдат съобразени с биологичните интереси или етиката“, обяснява Гарет.
Как ASI би могъл да се освободи от досадния биологичен живот, който го обуздава? Може да създаде смъртоносен вирус, да попречи на производството и разпространението на селскостопанските храни, да накара някоя атомна електроцентрала да се разтопи и да започне война.
Всъщност не знаем, защото всичко това е неизследвана територия. Преди стотици години картографите са чертаели чудовища в неизследваните райони на света и донякъде това правим и сега.
Ако всичко това ви звучи безперспективно и неизбежно, Гарет казва, че ситуацията е различна.
Досегашният му анализ се базира на това, че ASI и хората заемат едно и също пространство. Но ако успеем да придобием статут на многопланетна планета, перспективите ще се променят.
„Например един многопланетен биологичен вид би могъл да се възползва от независимия опит на различните планети. По този начин той ще разнообрази стратегиите си за оцеляване и вероятно ще избегне провала в една област, с който се сблъсква една планетарно обвързана цивилизация„, пише Гарет.
Ако успеем да разпределим риска между множество планети около множество звезди, ще можем да се предпазим от най-лошите възможни резултати от ASI.
„Този разпределен модел на съществуване увеличава устойчивостта на биологичната цивилизация към катастрофи, предизвикани от ИИ, като създава излишъци“, пише той.
Ако една от планетите или аванпостовете, които бъдещите хора заемат, не успее да преживее технологичната сингулярност на ASI, другите могат да оцелеят. И те ще се поучат от това.
Многопланетният статус може дори да направи нещо повече от това просто да оцелее от ASI. Той може да ни помогне да я овладеем. Гарет си представя ситуации, в които можем да експериментираме по-обстойно с ИИ, като същевременно го държим под контрол. Представете си AI на изолиран астероид или планета джудже, който изпълнява нашите заповеди без достъп до ресурсите, необходими, за да избяга от затвора си.
„Това дава възможност за създаване на изолирани среди, в които ефектите на развития ИИ могат да бъдат изучавани без непосредствен риск от глобално унищожение“, пише Гарет.
Но ето я и загадката. Развитието на ИИ върви с все по-бързи темпове, докато опитите ни да станем многопланетни съвсем не са толкова бързи.
„Несъответствието между бързото развитие на ИИ и по-бавния напредък на космическите технологии е огромно“, казва още Гарет.
Разликата е в това, че ИИ е изчислителен и информационен, но пътуването в космоса съдържа множество физически препятствия, които все още не знаем как да преодолеем. Нашата собствена биологична природа възпрепятства пътуването в космоса, но това не е пречка за ИИ.
„ИИ теоретично може да подобри собствените си възможности почти без физически ограничения“, пише Гарет, „но нашето пътуване в космоса трябва да се бори с ограниченията на енергията, границите на материалознанието и суровата реалност на космическата среда“.
Засега изкуственият интелект работи в рамките на ограниченията, които сме поставили. Но това може да не бъде винаги така. Не знаем кога AI може да се превърне в ASI и дори дали може да го направи. Но не можем да пренебрегнем тази възможност. Това води до два взаимосвързани извода.
Ако Гарет е прав, човечеството трябва да работи по-усърдно върху космическите пътувания. Това може да изглежда пресилено, но знаещите хора знаят, че е вярно: Земята няма да бъде обитаема вечно. Човечеството ще загине тук от собствената си ръка или от ръката на природата, ако не се разширим в космоса. Оценката на Гарет за 200 години само поставя възклицателен знак върху това. Подновеният акцент върху достигането на Луната и Марс дава известна надежда.
Вторият извод се отнася до законодателното уреждане и управлението на ИИ. Това е трудна задача в свят, в който психопати могат да придобият контрол над цели държави и са склонни да водят война.
„Макар че заинтересованите страни от индустрията, политиците, отделните експерти и техните правителства вече предупреждават, че е необходимо регулиране, създаването на регулаторна рамка, която да бъде приемлива в световен мащаб, ще бъде предизвикателство“, пише Гарет.
Трудно е да се опишат нещата. Вътрешните дрязги на човечеството правят всичко това още по-неуправляемо. Освен това, независимо колко бързо ще разработим основните принципи, ASI може да успее да се промени още по-бързо.
„Без практическо регулиране има всички основания да се смята, че ИИ може да представлява голяма заплаха за бъдещия ход не само на нашата техническа цивилизация, но и на всички технически цивилизации“, пише Гарет.
Ако това се случи, може да се стигне до нещо, което може да изглежда скучно и делнично: спорове по отношение на законодателството.
„Продължаването на съществуването на интелигентен и съзнателен живот във Вселената може да зависи от навременното и ефективно прилагане на подобни международни регулаторни мерки и технологични начинания“, казва още Гарет.