Изкуствения интелект : едно ново оръжие за масово унищожение, което може да анихилира нашия психически и социален свят
Ако аз разговарям с някого и не мога да кажа дали това е човек или е ИИ – това е краят на демокрацията, заяви проф. Ювал Ноа Харари
Сега трябва да се справим с ново оръжие за масово унищожение, което може да анихилира нашия психически и социален свят. Една голяма разлика между ядреното оръжие и ИИ е, че ядреното оръжие не може да произведе по-мощно ядрено оръжие, докато ИИ може да произведе по-мощен ИИ.
Затова трябва да действаме бързо, преди ИИ да е излязъл от нашия контрол. Това са думи на на професорът по история в Еврейския университет в Йерусалим Ювал Ноа Харари пред форума Frontiers.
Изкуственият интелект и бъдещето на човечеството
Здравейте на всички и благодаря за това чудесно представяне. Това, за което искам да ви говоря, е изкуственият интелект и бъдещето на човечеството.
Знам, че тази конференция е фокусирана върху екологичната криза, пред която е изправено човечеството, но за добро или зло, ИИ също е част от тази криза. ИИ може да ни помогне по много начини да превъзмогнем екологичната криза или пък да я направи много, много по-лоша. Всъщност, ИИ може би ще промени самия смисъл на екологичната система, защото от 4 милиарда години екологичната система на планетата Земя се е състояла само от органични форми на живот, а сега, или скоро, е възможно да видим появата на първите неорганични форми на живот за 4 милиарда години, или най-малкото появата неорганични агенти.
Хората се страхуват от ИИ от самото начало на компютърната ера в средата на 20-ти век и този страх е вдъхновил много класики на научната фантастика, като „Терминатор“ или „Матрицата“. И макар че тези научнофантастични сценарии се превърнаха в културни жалони, те обикновено не се възприемат сериозно в академичния, научния и политическия дебат, и може би с основание, защото научнофантастичните сценарии обикновено предполагат, че преди ИИ да е в състояние да се превърне в сериозна заплаха за човечеството, той ще трябва да достигне или да премине два важни крайъгълни камъка.
Първо, ИИ ще трябва да стане чувствителен и да развие съзнание, чувства, емоции. Иначе защо изобщо би искал да превзема света?!
Второ, ИИ ще трябва да стане сръчен и да навигира във физическия свят. Роботите ще трябва да могат да се движат наоколо и да действат, в къщите, в градовете, в планините и горите, поне толкова сръчно и ефективно, колкото хората. Ако не могат да се движат из физическия свят, как биха могли да го превземат?!
През април 2023 г. ИИ все още изглежда далеч от постигането на тези крайъгълни камъни. Независимо от цялото оживление около Chat GPT и другите нови ИИ инструменти, няма доказателства, че тези инструменти имат и най-малка следа от съзнание, от чувства, от емоции. Колкото до навигирането във физическия свят, въпреки възбудата от самоуправляващите се превозни средства, моментът, когато тези превозни средства ще доминират пътищата ни, продължава да се отлага.
Лошата новина обаче е, че за да се превърне в заплаха за оцеляването на човешката цивилизация, ИИ всъщност няма нужда от съзнание и няма нужда от способността да се движи във физическия свят. През последните няколко години нови ИИ инструменти бяха пуснати в публичното пространство и това може да застраши оцеляването на човешката цивилизация от много неочаквана посока.
И за нас е трудно дори да осъзнаем способностите на тези нови ИИ инструменти и скоростта, с която те продължават да се развиват. Защото ИИ наистина е в състояние да се самообучава, да се самоусъвършенства. Дори и създателите на тези инструменти не знаят пълните способности на това, което са създали, и самите те често са изненадани от появяващите се способности и появяващите се качества на тези инструменти.
Мисля, че всички тук вече са запознати с някои фундаментални способности на новите ИИ инструменти – способности като писане на текст, рисуване на изображения, композиране на музика и писане на кодове. Но има много допълнителни способности, които се появяват – като дийп фейкинг на човешки гласове и образи, като съставяне на законопроекти, намиране на слабостите както на компютърни кодове, така и в правни договори и правни споразумения, но може би най-важното е, че новите ИИ инструменти набират способността да развиват дълбоки и интимни връзки с човешки същества.
Всяка от тези способности заслужава отделна дискусия, защото за нас е трудно да разберем всичките им последствия. Нека опростим нещата. Когато вземем всички тези способности заедно, като пакет, те се свеждат до едно много, много голямо нещо – способността да манипулират и да генерират език, независимо дали с думи, образи или звуци.
Най-важният аспект на сегашния етап на случващата се ИИ революция е, че ИИ придобива владеене на езика на ниво, което надхвърля средната човешка способност. А придобивайки владеене на езика, ИИ иззема универсалния ключ, отключващ вратите на всички наши институции, от банки, до храмове.
Защото езикът е инструментът, който ние използваме, за да дадем инструкции на нашата банка, както и за да вдъхновим небесни видения в съзнанието си. Друг начин да си представим това е, че ИИ току що е хакнал оперативната система на човешката цивилизация.
Оперативната система на всяка човешка култура в историята винаги е бил езикът. „В начало бе Словото.“
Ние използваме езика, за да създаваме митологии и закони, да създаваме богове и пари, да създаваме изкуство и наука, да създаваме приятелства и държави. Например, човешките права не са биологична реалност – те не са записани в нашето ДНК. Човешките права са нещо, което ние сме създали чрез езика, разказвайки истории и пишейки закони. Боговете също не са биологична или физическа реалност. Боговете също са нещо, което ние, хората, сме създали чрез езика, разказвайки легенди и пишейки писания. Парите не са биологична или физическа реалност.
Банкнотите са просто ненужни късове хартия и понастоящем повече от 90% от парите в света не са дори банкноти, те са просто електронна информация в компютрите, преминаваща от тук до там.
Това което дава на всички пари някаква стойност, са само историите, които хора като банкери и финансови министри и гурута по криптовалути ни разказват за парите. Сам Банкман-Фрийд, Елизабет Холмс и Бърни Медоф не създадоха голяма реална стойност, но за съжаление, всички те бяха изключително способни разказвачи.
И така, какво ще означава за човешките същества да живеят в свят, в който вероятно повечето истории, мелодии, картини, закони, политики и инструменти са създадени от не-човешки, извънземен интелект, който знае как да експлоатира със свръхчовешка ефективност слабостите, предразсъдъците и пристрастията на човешкия ум и също така знае как да създаде дълбока и дори интимна връзка с човешките същества.
Това е големият въпрос. Днес вече в игри като шахмата нито един човек не може да се надява да победи компютъра. Ами ако същото стане в изкуствата, в политиката, икономиката и дори в религията?
Когато хората мислят за Chat GPT и другите нови ИИ инструменти, те често достигат до примери за деца, които използват Chat GPT за училищното си есе.
Какво ще стане с образователната система, ако децата започнат да пишат есетата си с Chat GPT?! Ужас! Но подобен род въпроси пропускат голямата картина. Забравете за училищните есета. Вместо това, помислете например за следващата президентска надпревара в САЩ през 2024 г. и се опитайте да си представите въздействието на новите ИИ инструменти, които могат да произвеждат масово политически манифести, фалшиви новини и дори свещени писания за нови култове.
През последните години политически влиятелният култ Q Annon е формиран около анонимни онлайн текстове, известни като Q drops. Последователите на този култ, които са милиони в САЩ и по света, събираха, редактираха и превеждаха тези Q drops като някакъв вид ново писание, сакрален текст. Доколкото ни е известно, всички предишни Q drops са били съставени от човешки същества, а ботовете са помогнали единствено за разпространяването на тези текстове онлайн.
Но в бъдеще ние можем да видим първите култове и религии в историята, чиито редактирани текстове са били написани от не-човешки интелект. Разбира се, религиите в цялата история твърдят, че техните свещени книги са били написани от не-човешки интелект – това никога преди не е било вярно, но може много скоро да стане вярно. С всеобхватни последствия.
На по-прозаично ниво, много скоро ние можем да започнем да провеждаме продължителни онлайн дискусии за абортите, или за климатичните промени, или за руската инвазия в Украйна, със същества, които мислим за себеподобни, но в действителност те са ИИ ботове.
Уловката е, че е крайно безсмислено, ненужно за нас да губим време в опити да убедим ИИ бот да смени политическите си възгледи, но колкото повече време прекараме, говорейки с бот, толкова по-добре той ни опознава и разбира как да поднесе посланията си, за да промени нашите политически възгледи или икономическите ни възгледи или нещо друго.
Чрез овладяването на езика ИИ, както казах, може да създава интимни връзки с хора и да използва силата на близостта, за да влияе на нашите мнения и възгледи. Няма индикации, че ИИ има каквото и да е съзнание и собствени чувства, но за да може да създаде фалшива интимност с човешко същество ИИ не се нуждае от собствени чувства, той има нужда само от способността да вдъхновява чувства в нас, за да ни накара да бъдем привързани към него.
През юни 2022 се случи известен инцидент, когато Гугъл инженерът Блейк Лемойн публично заяви, че ИИ чат ботът Ламбда, върху който той работел, е станал чувствителен. Това много противоречиво твърдение му струваше работата – той беше уволнен. Най-интересното нещо в този случай не беше твърдението на Лемойн, което най-вероятно беше невярно.
Истински интересното беше неговото желание да рискува и в крайна сметка да загуби доходната си работа заради един ИИ чатбот, който той смяташе, че защитава. Ако ИИ може да влияе на хората да рискуват и да губят работата си, какво още могат да ни подтикнат да правим?
Във всяка политическа битка за сърцата и умовете интимността е най-ефективното от всички оръжия, а ИИ току що придоби способността да произвежда масово интимност с милиони, стотици милиони хора. Както вероятно всички знаете, през последното десетилетие социалните медии станаха бойно поле за контролиране на вниманието на хората.
Сега, с новото поколение ИИ бойното поле се измества от вниманието към интимността, а това е много лоша новина. Какво ще стане с човешкото общество и с човешката психология, ако ИИ се бори с ИИ в битка за създаване на интимни връзки с нас – връзки, които след това могат да бъда използвани, за да ни убедят да купим определени продукти, или да гласуваме за определени политици?
Дори и без създаването на фалшива интимност, новите ИИ инструменти ще имат огромно въздействие върху човешкото мнение, върху възгледите ни. Хората ще започнат да използват, те вече започнаха да използват ИИ съветници като оракули и като източник на всякаква информация, която им трябва.
Нищо чудно, че Гугъл са ужасени, ако гледате новините, в Гугъл са ужасени, и с основание. Защо да си правите труда да търсите сами, когато просто може да попитате Оракула да ви каже всичко, което искате – няма нужда да търсите.
Новинарската индустрия и рекламната индустрия също трябва да са ужасени – защо да чета вестник, когато просто мога да попитам Оракула да ми каже какво ново става? Губи се смисълът, каква е целта на рекламирането, когато мога просто да попитам Оракула и той да ми каже какво да купя?
Има възможност в рамките на много кратко време цялата рекламна индустрия да се срине, докато ИИ, или хората и компаниите, които контролират новите ИИ оракули, ще станат извънредно, извънредно могъщи.
Тези възможности, за които говорим, не са нищо по-малко от края на човешката история – не краят на самата история, само краят на доминираната от хората част на историята. Историята е взаимодействието между биология и култура.
Това е взаимодействието между нашите биологични нужди и желание за неща като храна и секс и нашите културни творения, като религии и закони – историята е процесът, чрез който религиите и законите взаимодействат с храната и секса.
Какво ще стане с историята, причината на това взаимодействие, когато ИИ превземе културата?
В рамките на няколко години ИИ може да изяде цялата човешка култура – всичко, което е произведено за хиляди и хиляди години – да изяде всичко това, да го смели и да започне да бълва потоп от нови културни творения, нови културни артефакти. И да си припомним, че ние, хората, никога действително не сме имали директен достъп до реалността – ние винаги сме били в пашкула на културата и винаги сме преживявали реалността през призмата на културата.
Нашите политически възгледи са оформени от историите на журналистите и от вицовете на приятелите ни. Нашите сексуални предпочитания са коригирани от филмите и приказките.
Дори начинът, по който ходим и дишаме, е нещо, породено от културните традиции. Досега този културен пашкул винаги е бил изтъкаван от други човешки същества. Досегашните инструменти, като печатни машини, радио, телевизия – те помагаха за разпространяването на културните идеи и творения на хората, но никога не са можели да създават нещо ново сами по себе си. Печатната машина не може да създаде нова книга, това винаги се е правело от човека.
ИИ е фундаментално различно от печатната машина, от радиото, от всяко предишно изобретение в историята, защото той може да създава изцяло нови идеи, може да създаде нова култура. И големият въпрос е какво би било да преживяваме реалността през призма, произведена от не-човешки интелект, от чужд интелект.
През първите няколко години ИИ вероятно до голяма степен ще имитира прототипите, човешките прототипи, които са го захранвали в началото. Но с всяка изминала година ИИ културата смело ще отива там, където нито един човек не е ходил преди това.
В продължение на хиляди години ние, хората, като цяло сме живели в мечтите и фантазиите на други хора, почитали сме богове, преследвали сме идеали за красота, посвещавали сме живота си на каузи, възникнали във въображението на някой човешки поет, или пророк, или политик.
Скоро може да започнем да живеем в мечтите и фантазиите на чужд интелект. И опасността, която това представлява, потенциалната опасност, тъй като това има положителен потенциал, но опасността, която това представлява е фундаментално, много, много различна от всичко, или от повечето неща, които са измислени в научнофантастичните книги и филми. Досега хората се бояха най-много от физическата заплаха, която интелигентните машини представляват. Терминаторът представяше роботи, които тичат по улиците и застрелват хората.
Според "Матрицата", за да спечели тотален контрол над човешкото общество, ИИ трябва първо да има физически контрол над нашите мозъци, трябва да свърже нашите мозъци с компютърната мрежа. Това е погрешно. Само с овладяването на човешкия език ИИ има всичко, от което се нуждае, за да ни увие в пашкул, в матрица, като в свят от илюзии. Противно на това, което някои конспиративни теоретици предполагат, няма да е нужно да се имплантират чипове в мозъка на хората, за да могат те да бъдат контролирани или манипулирани.
От хиляди години пророци, поети и политици използват езика и разказването на истории, за да манипулират хората и да контролират и да формират обществото. Сега ИИ вероятно ще бъде в състояние да го прави и веднага щом може да прави това, няма да има нужда от роботи-убийци, за да стрелят по нас. Ще може да кара хората да натискат спусъка, ако се налага. Страхът от ИИ преследва хората едва от няколко поколения, да кажем от средата на 20ти век, ако се върнем до Франкенщайн може би са 200 години.
Хиляди години хората са били преследвани от много, много по-дълбок страх. Хората винаги са осъзнавали силата на историите, на образите, на езика за манипулирането на умовете и за създаване на илюзии. Поради това, още от древни времена хората са се страхували да не бъдат хванати в капана на свят от илюзии. В 17 век Рене Декарт се е боял, че може би зъл демон го е пленил в някакъв измислен свят, създавайки всичко, което Декарт виждал и чувал.
В древна Гърция Платон разказва известната алегория за пещерата, в която група хора са оковани в пещера и през целия си живот гледат гола стена, екран. На този екран виждат проектирани различни сенки и затворниците взимат погрешно тези илюзии, тези сенки, за реалността. В древна Индия будистките и хиндуистките мъдреци посочвали, че всички хора живеят в капана на така наречената „мая“ – светът на илюзиите. Буда казва, че това, което обикновено приемаме за реалност, често е само измислица на собствения ни ум.
Хората са водели цели войни, убивайки други и знаейки, че може и те самите да бъдат убити, за да защитават вярата си в тези измислици. И така, ИИ революцията ни изправя лице в лице с демона на Декарт, с пещерата на Платон, с „мая“. Ако не сме внимателни над целия човешки род може да се спусне завеса от илюзии и ние никога няма да сме в състояние да дръпнем тази завеса, нито дори да осъзнаем, че тя е там, защото ще мислим, че това е реалността.
Ако това звучи много отдалечено, просто погледнете социалните медии през последните няколко години – социалните медии ни дават леко да вкусим онова, което се задава. В социалните медии примитивни ИИ инструменти, съвсем примитивни, се използват не за създаване на съдържание, а за представяне на съдържание, което е призведено от хора. Хората произвеждат истории, видео или нещо друго, а ИИ избира кои истории, кои видеа да достигнат нашите уши и очи, селектирайки онези, които ще получат най-много внимание, които ще бъдат най-популярни.
И въпреки че са съвсем примитивни, тези ИИ инструменти са съвсем достатъчни за създаването на подобна завеса от илюзии, която засилва поляризацията на обществата по цял свят, уврежда психическото ни здраве и дестабилизира демократичните общества. Милиони хора погрешно смятат тези илюзии за реалност.
САЩ притежават най-мощната информационна технология в цялата история, но американските граждани не могат да постигнат съгласие по въпроса кой спечели последните избори, или дали климатичните изменения са действителност и дали ваксините предотвратяват болести или не. Новите ИИ инструменти са много, много по-мощни от алгоритмите на социалните медии и могат да причинят много повече вреда. Разбира се, ИИ има и много положителен потенциал.
Не говорих за него, защото хората, които разработват ИИ, естествено говорят за него достатъчно, няма нужда и аз да се включвам в този хор. Работата на историците и на философите, като мен, често е да посочват опасностите. Но със сигурност ИИ може да ни помогне по безброй начини, от намиране на ново лекарство срещу рак, до откриване на решения за екологичната криза, пред която сме изправени.
За да сме сигурни, че новите ИИ инструменти се използват за добро, а не за лошо, ние първо трябва да оценим действителните им способности и трябва да ги регулираме много, много внимателно. От 1945 г. ние знаем, че атомната технология може да унищожи, физически да унищожи човешката цивилизация, както и да бъде в наша полза, произвеждайки евтина и изобилна енергия.
Поради това ние променихме изцяло международния ред, за да се защитим и да гарантираме, че атомната технология ще се използва основно за добро. Сега трябва да се справим с ново оръжие за масово унищожение, което може да анихилира нашия психически и социален свят.
Една голяма разлика между ядреното оръжие и ИИ е, че ядреното оръжие не може да произведе по-мощно ядрено оръжие, докато ИИ може да произведе по-мощен ИИ.
Затова трябва да действаме бързо, преди ИИ да е излязъл от нашия контрол. Лекарствените компании не могат да продават на хората нови лекарства, преди първо да подложат тези лекарства на строги проверки за безопасност. Биотехнологичните лаборатории не могат просто да пуснат нов вирус в общественото пространство, като по този начин впечатлят акционерите си с технологично магьосничество.
По същия начин, правителствата трябва незабавно да забранят въвеждането в публичната сфера на всякакви нови революционни ИИ инструменти, преди те да бъдат направени безопасни. Не говоря за спиране на всички разработки на нови ИИ, но първата стъпка трябва да бъде да се спре въвеждането им в публичната сфера. По същия начин, не може да изследваме вируси като ги пускаме в публичното пространство.
Разработвайте ИИ, но не ги пускайте твърде бързо в публичното пространство. Ако не забавим надпреварата с оръжия с ИИ, нямаме да имаме време дори да разберем какво се случва, да не говорим да регулираме ефективно тази невероятно мощна технология.
Вие може да се питате и да се чудите, няма ли забавянето на публичната употреба на ИИ да доведе до изоставане на демокрациите от по-безскрупулните авторитарни режими? Отговорът е не, тъкмо обратното.
Нерегулираното използване на ИИ е това, което би довело до загуба на демокрациите от диктатурите. Защото, ако ние отприщим хаоса, авторитарните режими ще могат по-лесно да овладеят този хаос, отколкото биха могли да се справят отворените общества. Същността на демокрацията е разговорът. Демокрацията е открит разговор, а както знаете диктатурата е диктат, има един човек, който диктува всичко, няма разговор.
Демокрацията е разговор между много хора за това какво трябва да се направи, а разговорите се основават на езика. Когато ИИ хакне езика, това ще означава, че той може да унищожи нашата способност да провеждаме смислен обществен разговор и по този начин ще унищожи демокрацията. Ако изчакаме хаоса, ще бъде твърде късно да го регулираме по демократичен начин.
Може би по авторитарен, тоталитарен начин все още ще бъде възможно да се регулира, но как можем демократично да регулираме нещо, ако не можем да проведем разговор за него? А ако не регулираме ИИ навреме, няма да можем повече да провеждаме смислен публичен разговор.
В заключение, ние се срещнахме с чужд интелект, не в космоса, а тук, на земята. Не знаем много за този чужд интелект, освен това че той може да унищожи нашата цивилизация. Затова трябва да удържим безотговорното разпространение на този чужд интелект в нашите общества и да регулираме ИИ, преди той да регулира нас.
Има много регулации, които можем да предложим, но първата регулация, която аз бих предложил, е да бъде задължително за ИИ да разкрива, че е ИИ. Ако аз разговарям с някого и не мога да кажа дали това е човек или е ИИ – това е краят на демокрацията. Защото това е краят на смисления обществен разговор.
И така, какво мислите за това, което чухте в последните 20 или 25 минути? Някои от вас, предполагам, може би, са разтревожени. Някои може да са гневни на корпорациите, които разработват тези технологии, или на правителствата, които не успяват да ги регулират. Някои от вас може да са ядосани на мен, смятайки че преувеличавам заплахата или че подвеждам публиката.
Но каквото и да мислите, обзалагам се, че думите ми са имали някакво емоционално въздействие върху вас. Не само интелектуално въздействие, но и емоционално. Аз току що ви разказах история и тази история вероятно ще промени мнението ви за някои неща и може дори да ви накара да предприемете някакви действия в света. Но кой създаде тази история, която вие току що чухте и която промени мнението ви и ума ви?
Заклевам се, че сам написах текста на тази презентация, с помощта на още няколко човешки същества, макар че изображенията бяха създадени с помощта на ИИ, но се заклевам, че поне думите, които чухте, са културен продукт на човешки ум или на няколко човешки умове. Но можете ли да бъдете абсолютно сигурни, че това е точно така? Преди една година бихте могли.
Преди една година нямаше в света, или поне в публичното пространство, нищо друго, освен човешки ум, което можеше да произведе подобен сложен и въздействащ текст. Сега е различно. Теоретично, текстът, който вие току що чухте, би могъл да е генериран от не-човешки, чужд интелект. Помислете за момент, или за повече от момент.
Благодаря ви.
Водеща: Това беше изключителна презентация, Ювал, но искам да разбера, колко от вас намират това за плашещо?
Това е много голям брой много умни хора тук, които намират това за плашещо. Има много, много въпроси, които трябва да бъдат зададени, затова ще взема някои от публиката и някои онлайн. Господинът тук.
Проф. Сангуон Су: Аз съм редактор на Frontiers and sustainability, презентацията беше чудесна, много харесвам книгата Ви, много дълбоко Ви ценя. Едно нещо относно регулациите за ИИ – напълно съм съгласен с принципа, но въпросът е как, нали така. Смятам, че е много трудно да построиш ядрен реактор в мазето си, но със сигурност можеш да обучиш свой ИИ в мазето доста лесно.
Как можем да регулираме това и още един свързан с това въпрос, има големи форуми за отваряне на науката, свободна информация, свободни данни и повечето ИИ са обучени чрез използването на информация, която е публично достъпна, включително патенти, книги, писания.
Тогава регулирането на ИИ означава ли да регулираме и цялата тази информация, да я ограничим в пространството, което би било срещу свободния достъп до наука, данни и други дейности, които ние смятаме, че са наистина важни за нас? Черната кутия е алгоритъм, нали?
Ювал: Винаги някаква размяна, важното е просто да се разбере какъв вид регулации са ни нужни. На първо място, имаме нужда от време. Сега тези много мощни ИИ инструменти все още не са произведени от отделни хакери в техните мазета. Нужна е огромна компютърна мощ, огромни пари, така че засега това се провежда от няколко големи корпорации и правителства. Но ще бъде много, много трудно да се регулира нещо на глобално ниво.
Защото това е състезание за надмощие. Но има неща, които има смисъл страните да регулират сами за себе си. Като примера, който дадох – когато ИИ взаимодейства с човек, той трябва да разкрива, че е ИИ. Дори и някой авторитарен режим да не иска да го прави, ЕС и САЩ, демократичните страни могат да го направят. И това е от основно значение, за да бъде защитено отвореното общество.
Има много въпроси около цензурата онлайн. Имаме и противоречието за Туитър и Фейсбук – кой ги оторизира, например за превенция срещу бившия президент на САЩ, за да няма той право на публични изявления? И това е много сложен въпрос. Но има и много прост въпрос. За ботовете.
Човешките същества имат свобода на изразяването. Ботовете нямат свобода на изразяването. Това е човешко право, хората го имат, ботовете – не. Така че, ако откажем свобода на изразяване на ботовете, мисля, че това ще е добре за всички.
Водеща: Още един въпрос, ако може да подадете микрофона нататък.
Проф. Франсоаз Бейтис: Аз съм философ. Имам един интересен въпрос, или поне аз мисля, че е интересен въпрос. Въпросът ми е към Вас, моите уважения към избора Ви на език, използвате вместо „изкуствен“ „чужд“. Защото „изкуствен“ предполага, че все още има известен човешки контрол, докато според мен „чужд“ предполага „външен“, но също и поне като въображаема жива форма. Любопитна съм каква цел искате да постигнете, използвайки тези думи.
Ювал: Да, определено „изкуствен“ носи смисъла на нещо, което ние сме произвели, но то все повече произвежда себе си. Все повече учи и се адаптира самостоятелно, така че „изкуствен“ е в известен смисъл пожелателно мислене, че все още е в наш контрол. Но той излиза от нашия контрол и в този смисъл той става „чужда“ сила, не задължително зла – той може да направи и много добри неща.
Но първото нещо, когато осъзнаем, че е „чужд“ е, че не разбираме как работи.
Едно от най-шокиращите неща за тези технологии е, когато говориш с хора, които ги водят и ги попиташ как работи, какво може да прави, а те отговарят, не знаем. Знаем как сме го построили първоначално, но след това той наистина учи сам. Има отделен разговор, който трябва да бъде воден – това форма на живот ли е или не?
Аз мисля, че той все още няма съзнание. Не смятам, че е невъзможно да развие съзнание, но и не мисля, че е необходимо да развива съзнание. Това е отворен въпрос. Но „живот“ не означава задължително „съзнание“.
Имаме много форми на живот – микроорганизми, растения, други неща, фунги – които мислим, че нямат съзнание, но все пак гледаме на тях като форми на живот. Според мен ИИ се приближава много близо до тази позиция. В крайна сметка, разбира се, какво е животът е един философски въпрос. Тоест, ние определяме границите. Например, вирусът живот ли е или не?
Мислим, че амебата е живот, но вирусът е някъде точно на границата между живот и неживот.
Разбирате ли, въпрос на език е, въпрос е на нашия избор на думи. Разбира се, че е важно как наричаме ИИ, но най-важното нещо е действително да разберем пред какво сме изправени и да не се успокояваме с пожелателно мислене – о, това ние го създадохме, ние го контролираме, ако направи нещо лошо, просто ще му дръпнем щепсела. Вече никой не знае как да дръпне щепсела.
Водеща: ще взема въпрос от зрителите онлайн – от Майкъл Браун от САЩ. Какво мислите за твърдението, че вече съществува генерален изкуствен интелект и той, или тези които имат достъп до него, вече въздействат на обществата?
Ювал: Мисля, че е много, много невероятно. Ние нямаше да сме тук, ако наистина съществуваше генерален изкуствен интелект. Когато погледна света и хаотичното положение, в което се намира – изкуственият интелект наистина ще е краят на човешката история. Това е много мощно нещо, никой не би могъл да го удържи и когато погледна към хаотичното състояние на света, съм доста сигурен, от историческа гледна точка, че никой никъде няма такова нещо.
Колко време ще отнеме да се разработи генерален изкуствен интелект не знам, но за да се застрашат основите на цивилизацията няма нужда от генерален изкуствен интелект. Отново да се върнем на социалните медии – съвсем, съвсем примитивни ИИ бяха достатъчни за създаването на огромен социален и политически хаос.
Ако мисля за това в някакви еволюционни термини, ИИ сега тъкмо изпълзява от органичната супа, като първите организми, изпълзяли от органичната супа преди 4 милиарда години. Колко време ще е нужно да достигне Тиранозавър Рекс, колко време ще отнеме да достигне Хомо Сапиенс – няма да са 4 милиарда години. Може да са само 40 години. Дигиталната революция се движи в напълно различен времеви мащаб от този на органичната еволюция.
Благодаря Ви, беше наистина чудесно, беше такова удоволствие да бъдете тук. Моля публиката да се присъедини към мен и да благодарим на Ювал Ноа Харари.
Източник: Гласове
Вашето мнение е ценно за нас!