Главният изпълнителен директор на OpenAI Сам Алтман смята, че технологията, заложена в основата на най-известния продукт на неговата компания може да доведе до края на човешката цивилизация.
През май главният изпълнителен директор на OpenAI внесе документи в залата за изслушвания на подкомисията на Сената във Вашингтон, окръг Колумбия, със спешен призив към законодателите за създаване на обмислени регулации, които да приемат мощните перспективи на изкуствения интелект и в това време ограничат риска да надделее над човечеството. Това беше определящ момент за него и за бъдещето на изкуствения интелект.
С пускането на OpenAI's ChatGPT в края на 2022 г., 38-годишният Алтман се появи за една нощ като дете на плаката за нова серия от AI инструменти, които могат да генерират изображения и текстове в отговор на потребителски желания, технология, наречена генеративен AI. Малко след пускането, ChatGPT стана известно име, почти синоним на самия AI. Главните изпълнителни директори го използваха за изготвяне на имейли, хората създаваха уебсайтове без опит в кодирането и издържа изпити от юридически и бизнес училища. ИИ има потенциала да революционизира почти всяка индустрия, включително образование, финанси, селско стопанство и здравеопазване, от операциите до разработването на ваксини за лекарства, пише CNN.
Но същите тези инструменти предизвикаха безпокойство за различни неща – от измама в училищата до засегане на работните места, та чак до екзистенциална заплаха за човечеството. Възходът на изкуствения интелект накара икономистите да предупредят за значителнна промяна на пазара на труда. Около 300 млн. работни места по света биха могли да бъдат автоматизирани чрез изкуствения интелект, според оценки на Goldman Sachs. Около 14 млн. позиции може да изчезнат само през следващите 5 години, сочи доклад от април на Световния икономически форум.
Снимка: Getty Images
В свидетелските си показания пред Конгреса Алтман заяви, че е възможно изкуственият интелект да бъде използван за манипулиране на гласоподаватели и насочване към дезинформация, като това са част областите, предизвикващи най-голяма загриженост.
Две седмици след изслушването Алтман се присъедини към стотици водещи учени в областта на ИИ, изследователи и бизнес лидери в подписването на писмо от едно изречение, което гласи: „Ограничаването на риска от изчезване от ИИ трябва да бъде глобален приоритет заедно с други рискове от обществено значение като пандемии и ядрена война“.
Предупреждението беше широко отразено в пресата, като някои предполагаха, че показва необходимостта да се приемат по-сериозно подобни апокалиптични сценарии. Той също подчертава важна активност в Силициевата долина: топ мениджъри на някои от най-големите технологични компании по едно и също време казват на обществеността, че ИИ има потенциала да доведе до изчезване на хората, като същевременно се надпреварват да инвестират и разгръщат технологията в продукти, достигащи до милиарди хора.
"Кевин Бейкън от Силиконовата долина"
Снимка: Getty Images
Въпреки че Алтман, дългогодишен предприемач и инвеститор от Силициевата долина, до голяма степен стоеше встрани от светлината на прожекторите през предходните години, през последните месеци погледите се насочиха към него. Това го изложи и на съдебни спорове, регулаторен контрол и както похвали, така и критики по целия свят.
По време на изслушването пред подкомисията на Сената обаче Алтман описа този бум на технологията като ключов момент. „Ще бъде ли изкуственият интелект като печатната преса, която разпространява знания, сила и широко усвояване в целия пейзаж, която дава сила на обикновените хора, което води до по-голям разцвет и преди всичко до две по-големи свободи? Или ще бъде по-скоро като атомната бомба – огромен технологичен пробив, последствията (тежки, ужасни), от който продължават да ни преследват и до днес?“, заяви той.
ОЩЕ: Какво гласи мрачната прогноза на Бил Гейтс за изкуствения интелект?
Алтман отдавна се е представя като човек, който има предвид рисковете, породени от ИИ, и подхожда към тях отговорно. Той сред няколкото технологични изпълнителни директори, които се срещат с лидерите на Белия дом, включително вицепрезидента Камала Харис и президента Джо Байдън, за да подчертае важността на етичното и отговорно развитие на ИИ.
Други искат Алтман и OpenAI да действат по-предпазливо. Илон Мъск, който помогна за основаването на OpenAI, преди да се откъсне от групата, и десетки технически лидери, професори и изследователи призоваха компании за ИИ като OpenAI да спрат обучението на най-мощните AI системи за поне 6 месеца, заради „огромни рискове за обществото и човечеството“. (Същевременно някои експерти се чудят дали подписалите писмото, целят да запазят конкурентното си предимство пред други компании.)
Снимка: Getty Images
Алтман заяви, че е съгласен с отделни части от призива, включително, че „нивото за безопасност трябва да се увеличи“, но посочи, че паузата няма да е „оптимален начин“ за справяне с предизвикателствата.
И все пак, OpenAI е натиснал здраво газта. Наскоро OpenAI и дизайнерът на iPhone Джони Айв са преговаряли за набиране на 1 млрд. долара от японския конгломерат SoftBank за устройство с изкуствен интелект, което да замени смартфона.
Тези, които познават Алтман, го описват като човек, който прави прозорливи залози и дори е наричан „стартъп Йода“ или „Кевин Бейкън от Силиконовата долина“, тъй като е работил с привидно всички в индустрията.
ОЩЕ: ChatGPT вече е приложение за смартфони достъпно за iPhone
Арън Леви, главен изпълнителен директор на корпоративната облачна компания Box и дългогодишен приятел на Алтман, който дойде с него в света на стартиращите компании, заяви пред CNN, че Алтман е „интроспективен“ и иска да обсъжда идеи, да получава различни гледни точки и насърчава обратната връзка върху каквото и да работи. „Винаги съм го намирал за невероятно самокритичен по отношение на идеите и готов да приеме всякаква обратна връзка по всяка тема, с която се е занимавал през годините“, споделя той.
Но Берн Елиът, анализатор в Gartner Research, посочва известното клише – Има риск да сложите всичките си яйца в една кошница, независимо колко доверие имате в нея. „Много неща могат да се случат на една кошница“, казва той.
Предстоят предизвикателства
Снимка: Getty Images
Когато стартира OpenAI, Алтман заявява пред CNN през 2015 г., че иска да насочи пътя на изкуствения интелект, вместо да се тревожи за потенциалните вреди и да не прави нищо. „Спя по-добре, като знам, че мога да имам някакво влияние“, отбеляза той.
Въпреки статута си на лидер, Алтман отбелязва, че остава загрижен за технологията. „Подготвям се за оцеляване“, казва той в профил от 2016 г. в New Yorker, като посочва няколко възможни сценария за бедствие, включително „Изкуствен интелект, който ни атакува“. „Имам оръжия, злато, калиев йодид, антибиотици, батерии, вода, противогази от израелските отбранителни сили и голямо парче земя в Биг Сур, до което мога да летя“, заяви той.
Някои експерти от AI индустрията обаче казват, че съсредоточаването на вниманието върху далечни апокалиптични сценарии може да отвлече вниманието от по-непосредствените вреди, които новото поколение мощни AI инструменти може да причини на хората и общностите. Роуън Кюран, анализатор във фирмата за пазарни проучвания Forrester, признава основателните опасения за това, че данните за обучението, особено за огромни модели, имат минимално отклонение – или има отклонение, което да се смекчи.
„Идеята за „AI апокалипсис“ като реалистичен сценарий, който представлява всякакъв вид опасност за човечеството – особено в краткосрочен и средносрочен план, е просто спекулативна техническа митология. Продължаващото съсредоточаване върху това като един от големите рискове, които идват заедно с напредъка на изкуствения интелект, отвлича вниманието от реалните предизвикателства днес, за да намалим настоящите и бъдещи вреди от данните и моделите, прилагани несправедливо от човешките актьори“, каза той.
В може би най-мащабното усилие досега е заповедта на президента Байдън по-рано тази седмица, която ще изисква от разработчиците на мощни AI системи да споделят резултатите от своите тестове за безопасност с федералното правителство, преди да се публикуват на обществеността, ако представляват риск за националната сигурност, икономиката или здравеопазването.
Снимка: Getty Images
След изслушването в Сената, Емили Бендер, професор във Вашингтонския университет и директор на неговата лаборатория по компютърна лингвистика, изрази загриженост за това как изглежда бъдещето с изкуствения интелект, дори ако е силно регулиран. „Ако те искрено вярват, че това може да доведе до изчезване на хората, тогава защо просто не спрат?“, попита тя.
Маргарет О’Мара, технологичен историк и професор във Вашингтонския университет смята, че доброто създаване на политика трябва да се основава на много гледни точки и интереси, а на един или няколко души, и да се оформя с оглед на обществения интерес.
„Предизвикателството с ИИ е, че малко хора и фирми наистина разбират как работи и какви са последиците от използването му“, посочва О'Мара, като отбелязва приликите със света на ядрената физика преди и по време на разработването на проекта „Манхатън“.
По думите ѝ все пак много хора в технологичната индустрия подкрепят Алтман като силата, която революционизира обществото с AI, но го направи безопасно.
„Това време е подобно на това, което Гейтс и Джобс направиха с персоналните компютри от началото на 80-те години на миналия век и на софтуера от 1990 г. Има реален шанс да имаме технология, която прави нещата по-добри, ако хората, които я правят, са добри, умни и ги е грижа за правилните неща. Сам въплъщава това за изкуствения интелект в момента“, отбелязва тя.
Светът разчита на Алтман да действа във възможно най-добрия интерес човечеството, макар че, според собственото му признание технологията може да бъде оръжие за масово унищожение. И въпреки че е умен и квалифициран лидер, той все още е именно това – човек.
Източник: CNN
ОЩЕ ПО ТЕМАТА:
Как изкуственият интелект може да трансформира юридическата професия?
Директор замени 90% от съпорт служителите си с изкуствен интелект. Какви са резултатите?
Директорът на OpenAI каза как ще се развие изкуственият интелект занапред
OpenAI обмисля да се оттегли от Европа
Коментари