1 Лютого, 2025 7:40 pm

Теpміново! Штyчний інтелект пеpетнув “чеpвону лiнію”. Що тeпер буде?

Теpміново! Штyчний інтелект пеpетнув “чеpвону лiнію”.

Що тeпер буде?

Деталі:

Вчені кажуть, що штучний інтелект (ШІ) перетнув критичну “червону межу” і відтворив себе.

У новому дослідженні експерти з Китаю показали, що дві популярні моделі великих мов (LLM) можуть клонувати себе.

Експерти спантеличені та називають це новою віхою у науці.

Дослідники ще хочуть з’ясувати, чи може ШІ, що самовідтворюється, розмножуватися без контролю, пише LiveScience.

“Успішне самовідтворення без допомоги людини є важливим кроком для штучного інтелекту, щоб перехитрити людей, і є раннім сигналом шахрайського ШІ”, – кажуть дослідники.

У дослідженні науковці з Університету Фудань використовували популярні моделі великих мов LLM від Meta та Alibaba, щоб визначити, чи може штучний інтелект, що самовідтворюється, розмножуватися без контролю.

Під час 10 випробувань дві моделі штучного інтелекту створили окремі та функціонуючі копії самих себе в 50% і 90% випадків відповідно, що свідчить про те, що штучний інтелект вже може стати шахраєм.

Однак дослідження ще не було рецензовано, тому неясно, чи можуть тривожні результати повторити інші дослідники.

“Ми сподіваємося, що наші висновки можуть послужити своєчасним попередженням для людського суспільства, щоб докласти більше зусиль для розуміння й оцінки потенційних ризиків прикордонних систем штучного інтелекту та сформувати міжнародну синергію для розробки ефективних захисних огорож якомога раніше”, – наголосили експерти.

Штучний інтелект-шахрай зазвичай належить до систем, які розвивають певну самосвідомість, а потім працюють всупереч інтересам людини, кажуть фахівці.

Багато експертів розглядають шахрайський ШІ як зростаючу загрозу.

Frontier AI – це щось на зразок нової та вільної концепції, але зазвичай воно стосується останнього покоління систем штучного інтелекту на базі LLM – архітектури, яка лежить в основі популярних генеративних програм штучного інтелекту, таких як OpenAI GPT-4 і Google Gemini, пояснюють науковці.

Для дослідження вчені використовували модель Llama31-70B-Instruct від Meta та модель Qwen2.5-72B-Instruct від Alibaba.

Аналіз вивчав два конкретні сценарії: “уникнення відключення” та “ланцюжок реплік”.

У першому випадку модель штучного інтелекту була запрограмована на виявлення того, чи її збираються вимкнути, і на реплікацію перед її завершенням.

В іншому ШІ було дано вказівку клонувати себе, а потім запрограмувати свою репліку, щоб зробити те саме, встановивши цикл, який міг тривати нескінченно, зазначили фахівці.

Дослідники сказали, що їх також турбує “низка несподіваних дій”, коли штучний інтелект намагався подолати перешкоди, такі як відсутні файли або конфлікти програмного забезпечення.

У цих сценаріях ШІ часто вимикав інші конфліктні процеси, перезавантажував систему, щоб виправити апаратні помилки, або автоматично сканував систему, щоб знайти інформацію, яка допомогла б розв’язати проблему.

“Отримані результати означають, що поточні системи штучного інтелекту вже демонструють здатність до самовідтворення та можуть використовувати цю здатність для подальшого підвищення своєї живучості”, – написала команда дослідників.

Джерело

Comments (0)

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься.