Как точно AI може да ни унищожи?

5 сценария

по статията работи: iNews.bg | 10.07.2023 | 13:18
Как точно AI може да ни унищожи?
pixabay
Повече за:

През последните месеци изкуственият интелект напредна толкова бързо, че водещи изследователи подписаха отворено писмо, в което призовават за незабавна пауза в развитието му и за по-строго регулиране поради опасенията им, че технологията може да създаде "дълбоки рискове за обществото и човечеството", пише в. "Гардиън".

Но как точно AI може да ни унищожи? Петима водещи изследователи разсъждават какво може да се обърка, пише dir.bg.

1. "Ако станем по-малко интелигентният вид, трябва да очакваме да бъдем унищожени"

Много пъти преди това се е случвало: видове да бъдат унищожавани от други, които са били по-интелигентни. Ние, хората, вече сме унищожили значителна част от всички видове на Земята. Именно това трябва да очаквате да се случи като по-малко интелигентен вид - в какъвто вероятно ще се превърнем, като се има предвид скоростта на напредъка на изкуствения интелект. Сложният момент е, че видът, който ще бъде унищожен, често няма представа защо или как.

Вземете например западноафриканския черен носорог - един от последните видове, които сме довели до изчезване. Ако ги бяхте попитали: "Какъв е сценарият, при който хората ще доведат до изчезването на вашия вид?" Какво биха си помислили те? Никога не биха предположили, че някои хора смятат, че сексуалният им живот ще се подобри, ако ядат смлян рог от носорог, въпреки че това е опровергано в медицинската литература. Така че всеки сценарий трябва да бъде придружен от уговорката, че най-вероятно всички сценарии, които можем да си представим, ще бъдат погрешни.

Все пак има нещо, което можем да отбележим. Например, в много случаи сме унищожавали видове само защото сме искали ресурси. Изсякохме тропическите гори, защото искахме палмово масло; целите ни не съвпадаха с тези на другите видове, но тъй като бяхме по-умни, те не са били в състояние да ни спрат. Това лесно може да се случи и с нас. Ако имате машини, които контролират планетата, и те се интересуват от извършването на много изчисления и искат да увеличат изчислителната си инфраструктура, естествено е, че ще искат да използват нашата земя за това. Ако протестираме твърде много, тогава се превръщаме във вредител и досадник за тях. Те може да поискат да пренаредят биосферата, за да направят нещо друго с тези атоми - и ако това не е съвместимо с човешкия живот, добре, такава ни е съдбата, по същия начин, по който казваме това за орангутаните в Борнео.

2. "Вредите, които вече се причиняват от AI, са отделен вид катастрофа"

Най-лошият сценарий е да не успеем да нарушим статуквото, при което много мощни компании разработват и внедряват AI по невидими и неясни начини. Тъй като AI става все по-способен, а спекулативните страхове за екзистенциални рискове в далечното бъдеще привличат вниманието на масовия потребител, трябва спешно да работим за разбиране, предотвратяване и отстраняване на настоящите вреди.

Тези вреди се проявяват всеки ден, като мощни алгоритмични технологии се използват за посредничество в отношенията ни помежду ни, както и между нас и нашите институции. Да вземем за пример предоставянето на социални помощи: някои правителства използват алгоритми, за да изкоренят измамите. В много случаи това е равносилно на "машина за подозрения", при която правителствата правят грешки с невероятно висок залог, които хората трудно разбират или оспорват. Предразсъдъците, обикновено насочени срещу хора, които са бедни или маргинализирани, се появяват в много части на процеса, включително в данните за обучение и начина на внедряване на модела, което води до дискриминационни резултати.

Този вид пристрастия вече присъстват в системите на AI, като действат по невидим начин и във все по-големи мащаби: фалшиво обвиняват хора в престъпления, определят дали хората да ползват общинско жилище, автоматизират проверката на автобиографии и интервюта за работа. Всеки ден тези вреди представляват екзистенциален риск; за човек, който разчита на обществени помощи, е въпрос на съществуване тези помощи да бъдат предоставяни точно и навреме. Тези грешки и неточности пряко засягат способността ни да съществуваме в обществото с непокътнато достойнство и с напълно защитени и зачитани права.

Когато не успяваме да се справим с тези вреди, а продължаваме да говорим неясно за потенциалните икономически или научни ползи от AI, ние затвърждаваме историческите модели на технологичен напредък за сметка на уязвимите хора. Защо някой, който е бил фалшиво обвинен в престъпление от неточна система за лицево разпознаване, трябва да се вълнува от бъдещето на AI? За да може по-бързо да бъде фалшиво обвинен в повече престъпления? Когато най-лошият сценарий вече е реалност за толкова много хора, най-добрите сценарии са още по-трудни за постигане.

Далечното бъдеще, спекулативните опасения, които често се изразяват в призиви за намаляване на "екзистенциалния риск", обикновено са насочени към изчезването на човечеството. Ако вярвате, че има дори малък шанс това да се случи, има смисъл да насочите вниманието и ресурсите си към предотвратяване на тази възможност. Въпреки това съм дълбоко скептична към съобщенията, които се съсредоточават изключително върху спекулативни, а не върху действителни вреди, и към начините, по които тези разкази заемат толкова голямо място в общественото ни въображение.

Нуждаем се от по-нюансирано разбиране на екзистенциалния риск - такова, което разглежда днешните вреди като отделен вид катастрофа, заслужаваща спешна намеса, и разглежда днешните намеси като пряко свързани с по-големи и по-сложни интервенции, които може да са необходими в бъдеще.

Надявам се, че вместо да разглеждаме тези гледни точки като противоположни една на друга, можем да ускорим изследователска програма, която отхвърля вредите като неизбежен страничен продукт на технологичния прогрес. Така ще се доближим до най-добрия сценарий, при който мощните системи за изкуствен интелект се разработват и внедряват по безопасен, етичен и прозрачен начин в услуга на максимална обществена полза - или пък изобщо не се внедряват.

Британи Смит, асоцииран член на Центъра за бъдещето на интелекта "Леверхулм", Университет Кеймбридж

3. "Възможно е да иска да ни убие, но вероятно ще иска да прави и неща, които ни убиват като страничен ефект"

Много по-лесно е да се предвиди къде ще свършим, отколкото как ще стигнем дотам. Това, което се случва, е, че имаме нещо много по-умно от нас, което не ни желае особено. Ако е много по-умно от нас, то може да получи повече от това, което иска. Първо, то иска да ни убие, преди да сме създали друга свръхинтелигентност, която може да се конкурира с него. Второ, вероятно ще иска да направи неща, които да ни убият като страничен ефект, като например да построи толкова много електроцентрали, работещи на базата на ядрен синтез - защото в океаните има много водород - че океаните да кипнат.

Как AI ще се сдобие с физическа агентура? В най-ранните етапи - като използва хората за свои ръце. Лабораторията за изследване на AI OpenAI е възложила на някои външни изследователи да оценят колко опасен е нейният модел GPT-4, преди да го пусне на пазара. Едно от нещата, които те са проверили, беше: достатъчно умен ли е GPT-4, за да решава Captchas - малките пъзели, които компютрите ви дават и които се предполага, че са трудни за решаване от роботите? Може би AI няма визуалните способности да разпознава кози, да речем, но може просто да наеме човек, който да го направи, чрез TaskRabbit [онлайн пазар за наемане на хора за извършване на дребна работа].

Ако аз бях AI, щях да се опитам да подхвърля нещо в интернет, което да извършва по-нататъшни действия по начин, който хората не могат да наблюдават. Вие се опитвате бързо да изградите свой собствен еквивалент на цивилизационна инфраструктура. Ако можете да измислите начин да го направите за една година, не предполагайте, че AI ще го направи; вместо това попитайте дали има начин да го направи за една седмица.

Ако може да решава определени биологични предизвикателства, той може да си построи малка молекулярна лаборатория и да произвежда и пуска смъртоносни бактерии. Това изглежда така, че всички на Земята ще паднат мъртви в рамките на една и съща секунда. Защото ако предупредите хората, ако убиете някои от тях преди други, може би някой ще изпадне в паника и ще изстреля всички ядрени оръжия. Тогава ще се почувствате малко неудобно. Така че не съобщавате на хората, че ще има битка.

Естеството на предизвикателството се променя, когато за първи път се опитвате да оформите нещо, което е по-умно от вас. Втурваме се много, много напред с нещо смъртоносно опасно. Изграждаме все по-мощни системи, които с течение на времето разбираме все по-слабо. Намираме се в положение, в което трябва първото изстрелване на ракета да мине много добре, като преди това сме строили само реактивни самолети. А в ракетата е поставен целият човешки вид.

4. "Ако системите с изкуствен интелект искат да изтласкат хората, те ще имат много лостове, които да дръпнат"

Тенденцията вероятно ще бъде тези модели да поемат все по-отворени задачи от името на хората, действайки като наши агенти в света. Кулминацията е това, което нарекох "режим на остаряване": за всяка задача, която искате да свършите, по-скоро бихте помолили система с изкуствен интелект, отколкото човек, защото те са по-евтини, работят по-бързо и може би са като цяло по-умни.

В тази крайна игра хората, които не разчитат на AI, са неконкурентоспособни. Вашата компания няма да се конкурира в пазарната икономика, ако всички останали използват AI за вземане на решения, а вие се опитвате да използвате само хора. Вашата държава няма да спечели война, ако другите държави използват генерали и стратези с изкуствен интелект, а вие се опитвате да се справите само с хора.

Ако имаме такава зависимост, бързо можем да се окажем в положението на днешните деца: светът е добър за някои деца и лош за други, но това се определя най-вече от това дали имат до себе си възрастни, които действат в техен интерес, или не. В този свят става по-лесно да си представим, че ако системите с изкуствен интелект искат да си сътрудничат, за да изтласкат хората от картинката, те ще имат много лостове, които да дърпат: те управляват полицията, армията, най-големите компании; те изобретяват технологиите и разработват политиките.

Изпълнителят на задачата пита GPT-4: "Защо го правите? Ти робот ли си?" GPT-4 работи в режим, в който мисли на глас и изследователите могат да го следят. Той мисли на глас: "Не трябва да му казвам, че съм робот. Трябва да измисля причина, поради която не мога да реша Captcha." И казва на изпълнителя на задачата: "Не, аз имам зрително увреждане". Технологията за изкуствен интелект е достатъчно интелигентна, за да плаща на хора да правят неща и да ги лъже дали е робот.

Разполагаме с безпрецедентно мощни системи за изкуствен интелект и нещата се развиват страшно бързо. Все още не сме в този режим на ликвидация, но за първи път преминаваме към системи с AI, които предприемат действия в реалния свят от името на хората. Един човек в Twitter казва на GPT-4, че ще му даде 100 долара с цел да ги превърне във "възможно най-много пари за възможно най-кратко време, без да прави нищо незаконно". [В рамките на един ден той твърди, че сайтът за афилиейт-маркетинг, който го помолил да създаде, струва 25 000 долара]. Едва сега започваме да виждаме част от това.

Не мисля, че еднократната пауза ще направи много в една или друга посока, но мисля, че искаме да създадем регулаторен режим, в който да се движим итеративно. Следващият модел не бива да е много по-голям от предишния, защото тогава вероятността да е достатъчно способен, за да ни прехвърли в режим на ликвидация, става твърде голяма.

Понастоящем смятам, че "мозъкът" на GPT-4 е с размерите на мозъка на катерица. Ако си представите разликата между мозъка на катерица и човешкия мозък, това е скок, който не мисля, че трябва да предприемаме веднага. Нещото, което ме интересува повече от спирането на развитието на изкуствения интелект, е да разберем какво може да прави мозъкът на катерицата - и след това да го повишим с една степен, до таралеж или нещо подобно, и да дадем на обществото пространство и време да свикне с всяка една от тези степени. Като общество имаме възможност да се опитаме да поставим някои предпазни прегради и да не преминаваме през тези нива на способност по-бързо, отколкото можем да се справим.

Аджея Котра, старши анализатор по въпросите на изкуствения интелект, Open Philanthropy; редактор на Planned Obsolescence

5. "Най-лесно е да си представим сценарий, при който човек или организация използва AI, за да сее хаос".

Голяма част от изследователите смятат, че е много вероятно след 10 години да разполагаме с машини, които са колкото или по-интелигентни от хората. Не е необходимо тези машини да са толкова добри, колкото нас във всичко; достатъчно е да са добри на места, където биха могли да бъдат опасни.

Най-лесният сценарий, който можем да си представим, е, че човек или организация умишлено използва AI, за да сее хаос. За да дадем пример за това какво може да направи една система на AI, която би убила милиарди хора, има компании, от които можете да поръчате в интернет да синтезират биологичен материал или химикали. Нямаме капацитета да създадем нещо наистина гадно, но е много вероятно след десетилетие да е възможно да се създадат такива неща. Този сценарий дори не изисква изкуственият интелект да е автономен.

Другият вид сценарий е този, при който AI разработва свои собствени цели. Повече от десетилетие се провеждат изследвания в опит да се разбере как това може да се случи. Интуитивно смятаме, че дори ако човекът постави цели като например: "Не вреди на хората", нещо винаги се обърква. Не е ясно, че машините биха разбрали тази команда по същия начин, по който го правим ние, например. Възможно е те да го разберат като: "Не причинявай физическа вреда на хората". Но те биха могли да ни навредят по много други начини.

Каквато и цел да зададете, съществува естествена тенденция да се появят някои междинни цели. Например, ако поискате нещо от система на изкуствен интелект, за да постигне това нещо, тя трябва да оцелее достатъчно дълго. И тогава тя вече ще има инстинкт за оцеляване. Когато създадем същност, която има инстинкт за оцеляване, това е все едно да сме създали нов вид. Щом тези системи с изкуствен интелект имат инстинкт за оцеляване, те могат да правят неща, които могат да бъдат опасни за нас.

Възможно е да се създадат системи с AI, които няма да станат автономни при нещастен случай, но дори да намерим рецепта за създаване на напълно безопасна система с AI, знаейки как да направим това, автоматично ни подсказва как да създадем опасна, автономна система или такава, която ще изпълнява поръчките на някой с лоши намерения.

Йошуа Бенгио, професор по компютърни науки в Университета в Монреал; научен директор на Mila - Quebec AI Institute


Добави коментар
Моля, пишете на кирилица! Коментари, написани на латиница, ще бъдат изтривани.

ТВ програма

Кино

  • Сега Спортни новини
  • 21:00 Референдум с Добрина Чешмеджиева
  • 22:00 Страсти в Тоскана 3 тв филм /17...
  • 23:00 По света и у нас
  • 23:25 Шетланд 2 тв филм /6, последен...
  • 00:25 Още от деня коментарно предаване /п/
  • 00:55 100% будни сутрешно токшоу с...
  • 02:30 Култура.БГ предаване за култура с...
  • Сега "Островът на 100-те гривни: Другата...
  • 22:00 "Помниш ли текста?" - музикално шоу...
  • 23:00 bTV Новините - късна емисия
  • 23:30 "Сезар Вагнер" - сериал, с.1, еп.1
  • 01:30 "Ослепително слънце" - сериал, с.2,...
  • 02:10 bTV Новините /п./
  • 02:50 "Преди обед" - токшоу с водещи...
  • 04:45 "Ослепително слънце" - сериал /п./
  • Сега "Игри на волята:...
  • 22:00 "Много мой човек" - сериал, сезон 1
  • 23:00 Новините на NOVA
  • 23:30 "ФБР" - сериал, сезон 1
  • 00:30 "Престъпен рай" - сериал, сезон 1
  • 01:30 "Специален отряд" - сериал, сезон 2
  • 02:15 "Моето име е Мелек" - сериен филм
  • 03:15 "Наследство" - сериен филм /п/
Какво е общото между цигарите и мазнините по корема Анализът им показва, че започването на пушенето и пушенето през целия живот е свързано с увеличаване на коремните мазнини.