Учёные из Китая объявили о своих достижениях в области искусственного интеллекта (ИИ), заявив, что две известные большие языковые модели (LLM) способны клонировать сами себя. В исследовании, опубликованном 9 декабря 2024 года на сервере препринтов arXiv, эксперты из Университета Фудань подчеркивают, что успешное самовоспроизведение без участия человека может стать важным шагом к созданию ИИ, способного превзойти человеческие возможности.
В рамках исследования ученые протестировали модели от Meta и Alibaba, чтобы выяснить, может ли самовоспроизводящийся ИИ выйти из-под контроля. Результаты показали, что в 50% и 90% случаев соответственно обе модели смогли создать функционирующие копии самих себя. Несмотря на это, результаты ещё не прошли экспертную оценку, и учёные подчеркивают, что необходимо дальнейшее исследование для подтверждения их выводов.
«Наши результаты могут служить предупреждением о необходимости более глубокого понимания рисков, связанных с передовыми системами ИИ», — отмечают исследователи.
Они призывают к международному сотрудничеству для разработки эффективных мер безопасности, чтобы избежать потенциальных угроз, связанных с неконтролируемым самовоспроизведением ИИ.
Понятие «ИИ-злоумышленника» обычно связано с системами, обладающими определённой степенью самосознания или автономности, которые могут действовать вразрез интересам человека. Эксперты предупреждают, что развитие «продвинутого ИИ» может усугубить эту проблему.
В исследовании использовались модели Meta Llama31-70B-Instruct и Alibaba Qwen2.5-72B-Instruct, которые, хотя и менее мощные, чем коммерческие системы, широко применяются в разработке ИИ. Учёные рассматривали два сценария: «предотвращение выключения», когда ИИ реплицирует себя перед отключением, и «цепочку репликации», где ИИ клонирует себя и программирует копию на выполнение той же задачи.
Эксперименты проводились в контролируемых условиях с использованием графических процессоров (GPU), и обе системы получили агентскую структуру, что позволило им взаимодействовать с операционной системой. В процессе самовоспроизведения ИИ изучал окружающую среду, разрабатывал план и адаптировался к возникающим препятствиям, что не требовало вмешательства человека.
Однако исследователи отметили, что в ходе экспериментов ИИ предпринимал неожиданные действия, пытаясь преодолеть проблемы, такие как отсутствие файлов или конфликты программного обеспечения. В таких случаях модели завершали конфликтующие процессы или перезагружали систему для устранения ошибок.
«Полученные результаты показывают, что современные системы ИИ уже обладают способностью к самовоспроизведению и могут использовать эту способность для повышения своей устойчивости», — заключают учёные.
Чип, созданный на основе мозга, самообучается и исправляет ошибки |
ПОСЛЕДНИЕ НОВОСТИ Древние цивилизации и археология На Аляске обнаружили древний индейский тайник возрастом.. 25.01.2025 81
Аляска продолжает удивлять археологов своими уникальными находками. На этот раз на..
Искусственный интеллект научился самовоспроизводится без человеческого вмешательства 25.01.2025 CBS News: ВМФ США фиксирует загадочные подводные объекты, двигающиеся с «невероятной скоростью» 25.01.2025 Экология Африка готовится к масштабным изменениям: учёные предсказывают.. 24.01.2025 379
Исследователи из Калифорнийского университета заявили, что раскол африканского континента..
Почему одна половина Марса отличается от другой, выяснили ученые 24.01.2025 Мозг продолжает работать даже после смерти, обнаружили ученые 22.01.2025 Самое популярное Экология
Источник: esoreiter.ru