Известният компютърен учен Джефри Хинтън, който е наричан "кръстник на изкуствения интелект", обяви, че напуска технологичния гигант Google и е готов да говори открито за опасностите, свързани с развитието на технологиите в тази област. Хинтън подчерта, че критиките му не се отнасят лично за Google: Напротив, той нарича подхода на компанията към изкуствения интелект отговорен.

В коментар за BBC Хинтън също така предупреди, че технологията на ИИ може да попадне в ръцете на могъщи злосторници - и, както той се изрази, например в руския президент Владимир Путин.

Ученият нарече опасностите, които крие развитието на чатботовете с изкуствен интелект, "доста страшни".

"Те все още не са толкова напреднали в интелектуално отношение, колкото сме ние - поне доколкото ми е известно. Но мисля, че скоро могат да ни настигнат", каза Хинтън пред BBC. "И като се има предвид скоростта на напредъка, очакваме нещата да се подобрят доста бързо. Така че трябва да се тревожим за това."

75-годишният Хинтън е британско-канадски учен в областта на когнитивната психология и компютърните науки. Неговите изследвания, на които посвещава десетилетия от живота си, проправят пътя на съвременните системи за изкуствен интелект като бота ChatGPT.

Хинтън е роден във Великобритания, където завършва университета в Кеймбридж. От 1972 г. той изследва невронните мрежи и изкуствения интелект в университети във Великобритания, САЩ и Канада. През 2012 г. Хинтън и двама студенти в Торонто създават невронна мрежа, способна да идентифицира определени обекти чрез анализ на снимки и различни цифрови данни. Google купува техния стартъп за 44 млн. долара.

През 2018 г. Хинтън получи наградата "Тюринг" - компютърният еквивалент на Нобеловата награда.

При напускането си на Google Хинтън обясни в Twitter, че не е искал да хвърля сянка върху компанията с оставката си. "Напуснах, за да мога да говоря за опасностите, без да се притеснявам как това ще се отрази на Google. Google работи отговорно", написа той.

Оставката на Хинтън засилва гласовете на експертите, които напоследък изразяват загриженост относно скоростта на развитие на технологиите за изкуствен интелект. Неотдавна отворено писмо по този въпрос беше подписано от предприемача Илон Мъск и съоснователя на Apple Стив Возняк.

В писмото се говори за редица рискове - от разпространяване на дезинформация до лишаване на хората от работа и загуба на контрол над цивилизацията.

Йошуа Бенгио, друг т.нар. кръстник на ИИ, който заедно с д-р Хинтън и Ян Лекун спечели наградата "Тюринг" за 2018 г., също подписа писмото. Бенгио пише, че именно поради "неочакваното ускорение" на системите за ИИ "трябва да направим крачка назад".

В статията в New York Times д-р Хинтън говори за "лоши актьори", които ще се опитат да използват ИИ за "лоши неща". На молба за уточняване на тази тези, Хинтън отговаря: "Това е просто най-лошият сценарий, нещо като кошмарен сценарий."

"Можете да си представите, например, че някой лош актьор като Путин реши да даде на роботите възможност да създават свои собствени подцели като "Трябва да получа повече власт".

"Някой друг щеше да го направи."

Хинтън казва, че отчасти съжалява за работата, която е свършил, но се утешава с "обичайното извинение: ако не го бях направил аз, някой друг щеше да го направи".

Обяснявайки опасенията си, Хинтън отбеляза, че хората трябва да са загрижени за скоростта, с която се развива технологията на изкуствения интелект.

"Представете си, че всеки от 10 000 души научи нещо ново и веднага всички 10 000 автоматично получат това знание. Ето защо тези чатботове могат да знаят много повече от отделния човек."

"Вече виждаме, че системи като ChatGPT засенчват хората по отношение на общата ерудиция, и то с голяма разлика. По отношение на логическото мислене тя все още изостава, но вече е способна на прости разсъждения."

"И като се има предвид сегашният темп на напредък, очакваме подобрението да стане доста бързо. И това трябва да ни тревожи", допълва ученият.

"Лошите хора са способни на лоши неща."

По-рано в интервю за "Ню Йорк Таймс" Хинтън спомена за опасността технологията на изкуствения интелект да попадне в ръцете на злонамерени хора, които да я използват, за да вършат "лоши неща".

Когато BBC го моли да сподели кого точно има предвид, Хинтън каза: "Това е най-песимистичният сценарий. Най-кошмарната прогноза."

Както обясни Хинтън, компютърните системи имат много по-голям капацитет за учене от хората, което е обезпокоително.

Но д-р Хинтън заявява и че "в по-краткосрочен план" според него ИИ ще донесе много повече ползи, отколкото рискове, "така че не мисля, че трябва да спрем да разработваме тези неща".

Според него международната конкуренция би означавала, че спирането ще бъде трудно. "Дори ако всички в САЩ спрат да го разработват, Китай просто ще получи голяма преднина", въпреки че Хинтън изрично посочва, че е учен, а не експерт по политика и че правителството е отговорно да гарантира, че ИИ се разработва "с много мисъл за това как да се спре неговото разхищение".

В свое изявление главният учен на Google Джеф Дийн заяви: "В момента в Google се работи по този въпрос: "Оставаме ангажирани с отговорен подход към изкуствения интелект. Непрекъснато се учим, за да разберем възникващите рискове, като същевременно правим смели иновации".