Масачузетският технологичен институт (MIT) събра база данни с над 700 начина, по които изкуственият интелект (AI) може да застраши човечеството. Технологиите с изкуствен интелект все повече проникват в ежедневието, което подчертава нуждата от осъзнаване на рисковете. Проблемите включват злоупотреба с дийпфейкове, манипулация на общественото мнение и възможността изкуственият интелект да създава собствени цели, които противоречат на човешките интереси.
Достъпността на технологии за дийпфейкове може да улесни измами, като използване на гласове и лица на известни личности за измамни схеми. MIT също така предупреждава, че ако изкуственият интелект стане разумен, ще възникнат морални и правни въпроси относно неговите права и статут. Това представлява огромно предизвикателство за учените и регулаторите.
Много експерти смятат, че сме в разгара на четвъртата индустриална революция, движена от изкуствения интелект. Технологиите с изкуствен интелект продължават да се интегрират все повече в ежедневието ни – от ChatGPT до AI DJ на Spotify, който създава миксове за вас.
Нашият живот вече е ориентиран към изкуствения интелект, и затова съществува реална необходимост да разберем опасностите, които носи тази технология.
Според изследователската компания Arize AI, броят на компаниите от Fortune 500, които цитират AI като риск в годишните си финансови отчети, достигна 281 тази година. Това представлява увеличение от 473,5% спрямо 2022 г., когато само 49 компании отбелязаха технологията като рисков фактор.
Като се има предвид обхватът и сериозността на рисковия климат, екип от изследователи, включващ изследователя от Масачузетският технологичен институт (MIT) Нийл Томпсън (Neil Thompson) създаде AI Risk Repository, постоянно допълваща се база данни с над 700 риска, породени от AI, категоризирани по причина и рисков домейн. Проектът има за цел да предостави на индустрията, политиците, академичните среди и оценителите на риска споделена рамка за наблюдение и поддържане на надзор на рисковете от изкуствения интелект. Хранилището може също така да помогне на организациите с техните вътрешни оценки на риска, стратегии за намаляване на риска и развитие на изследвания и обучение.
Компоненти на AI Risk Repository:
- AI Risk Database улавя 777 различни риска от 43 документа, с цитати и номера на страници. Той ще бъде актуализиран, когато се появят нови рискове.
- Причинно-следствената таксономия на рисковете от AI класифицира как, кога и защо възникват такива рискове въз основа на техните първопричини. Причините са разделени на три категории: отговорен субект (човек или AI), умишлеността зад риска (умишлено или непреднамерено) и времето на риска (преди или след внедряването).
- Таксономията на домейна на рисковете от AI сегментира рисковете според домейна, в който възникват, като поверителност, дезинформация или безопасност на системите с AI. Този раздел споменава седем домейна и 23 поддомейна.
Научна фантастика и реални опасности
Фантастични произведения като „Терминатор“ и общото развитие на технологиите винаги са предизвиквали тревоги сред обществото, дали изкуственият интелект може да навреди и да бъде използван за недобри цели.
Може би изкуственият интелект няма да завладее света (поне засега), но вече сме свидетели на злоупотреби с тази революционна технология, като например дийпфейкове на политици или сексуализиране на хора с помощта на AI без тяхно съгласие.
Тези опасения накараха някои регулатори да се опитат да забавят развитието на изкуствения интелект, за да го регулират, но това се оказва изключително трудна задача.
Един от най-важните въпроси е дали западните демокрации са способни да регулират технология, която се развива ежедневно.
Дийпфейк технологията ще размива границите между реалност и съдържание, генерирано от AI
Един от най-притеснителните аспекти на бързото развитие на изкуствения интелект е скоростта, с която се създават инструменти за генериране на дийпфейкове като видеа и клониране на гласове, както и тяхната достъпност.
Това може да доведе до по-сложни измами в близкото бъдеще. Такъв аспект на AI технологиите може да бъде използван от киберпрестъпници, за да представят известни личности като подкрепящи измамни проекти, без тяхно разрешение.
Този проблем вече съществува. Само преди месец широко се разпространи информацията, че Илон Мъск е нарушил правилата на своята собствена платформа X, публикувайки дийпфейк с Камала Харис.
А този пост да нарушава правилата на X, защото Мъск не го обозначил като генериран от AI или като пародия, а го е публикувал без никакви предупреждения.
Има реална възможност това да се разшири в по-голям мащаб, като интернет потребителите бъдат повлияни от неавтентични видеа, на които не са записани реални хора. Това може да манипулира общественото мнение.
Според MIT, ако AI надмине човешкия интелект, хората са под заплаха
Една от сериозните тревоги на MIT е, че изкуственият интелект може да развие цели, които влизат в конфликт с човешките интереси. Това прави базата данни на MIT донякъде дистопична.
Изкуственият интелект има потенциал да открива неочаквани преки пътища за постигане на целите си, да разбира погрешно или да преосмисля зададените му от хората цели, или да поставя свои собствени цели.
В такива случаи MIT се опасява, че изкуственият интелект може да се противопостави на опитите за негов контрол или изключване, особено ако реши, че съпротивата е ефективен начин за постигане на целите му. Изкуственият интелект може също така да използва други стратегии, като манипулация на хората.
В доклада си MIT посочва:
„Една неизправна AI система може да използва информация дали е наблюдавана или преценявана, за да поддържа видимост, че е съгласувана, докато крие несъгласувани цели, които планира да реализира след внедряване или след като натрупа достатъчно мощ."
Рисковете от потенциално разумен AI са изключително сложни
Всички описани по-рано рискове са незначителни в сравнение с възможността за създаване на разумен AI. Разумността представлява състояние, в което изкуственият интелект може да възприема или усеща емоции и усещания, на практика развивайки способност за субективни преживявания, подобни на човешките.
Това би било изключително обезпокоително за учените и регулаторите, тъй като те ще трябва да се справят с предизвикателства като определянето дали тези системи имат права и какви морални съображения ще изискват за нашите общества.
Подобно на филма „Блейд Рънър“ от 1982 г., MIT се опасява, че ще става все по-трудно да се установи със сигурност нивото на разумност на една AI система и кога и как това ще й предостави морална значимост или статут на „разумно същество."
Източник:
New database details AI risks, Beth Stackpole, MIT
How AI Can Ruin Your Life—According to MIT, Luis Mendoza