"Интересная речь советника по нацбезу США Салливана про перспективы ИИ в Национальном университете обороны (смесь РАНХИГС с Академией Генштаба, где из штатских госслужащих куют "вашингтонских ястребов").
⬛️ ИИ НАЦИНТЕРЕСОВ
"В этом мире использование ИИ определит будущее, и наша страна должна разработать, как сказал бы генерал Эйзенхауэр, новую доктрину для гарантии, что ИИ работает на нас, наши интересы и наши ценности, а не против нас".
⬛️ Три важные вещи из пониманмя нацбеза США про ИИ:
1. Cкорость развития. Быстрее, чем видели в других технологиях. В логике "мы только начали что-то пытаться регулировать, а это уже устарело и надо придумывать регулирование под новые вещи".
2. Неопределенность траектории роста ИИ. Наиболее непредсказуемая инновация в истории человечества. Вплоть до того, что никто по-настоящему не знает, принесет ли ИИ ту пользу и даст ли те возможности, которые обещают энтузиасты. Пессимисты тоже очень убедительны. Но властям надо быть готовыми к любому сценарию – от взлета возможностей вертикально вверх до стагнации и разочарования.
3. Минимальная роль государства в инициировании разработки и внедрения. Всем занимаются частные компании. Это создает риски для системы нацбезопасности.
Основы лидерства. "Крупные технологические компании, которые разрабатывают и внедряют системы ИИ, будучи американскими, дали Америке лидерство". Лидерство надо "защитить и расширить" усилиями государства. Американский частник должен конкурировать с "такими компаниями КНР, как Huawei, чтобы предоставлять цифровые услуги людям по всему миру".
Задача: США должны быть "единственным технологическим партнером для стран по всему миру".
⬛️⏩ Что будут делать США?
1. Регулирование: США "создали самое лучшее в мире регуляторное пространство для ИИ" и сейчас идет работа над распространением его принципов на страны-союзники. Регулирование не ограничения, а способ обеспечить надежные, безопасные, вызывающие доверие и ограничивающие враждебную конкуренцию условия для лидерства.
2. Люди. Больше "виз талантов" и гринкарт. США должны "пылесосить" мир в поисках людей способных к работе в этой области и забирать их себе "везде, где это возможно".
3. Оборудование. Чипы: больше для себя, меньше для других. Все "передовые чипы" либо должны быть произведены американскими компаниями, либо их распределение должно находиться под контролем США. Ограничения для других должны касаться не только чипов, но и оборудования для их производства.
4. Электроэнергия. Вся инфраструктура для работы современного ИИ должна возводиться на территории США, а значит быть обеспечена американской дешевой энергией. В переводе с чиновничьего с "климатическими целями" на человеческий – больше разрешений на строительство и эксплуатацию атомных станций.
5. "Комиссары" от правительства, следящие за соблюдением нацбеза в работе ИИ-компаний. "Люди из правительства должны тесно сотрудничать с разработчиками ИИ из частного сектора, чтобы обеспечить им своевременные услуги по кибербезопасности и контрразведке для сохранения их технологий".
⬛️ Главный конкурент и оппонент – Китай. Который ИИ будет использовать непременно в "плохих целях": цензура, фейки, влияние на выборы в других странах, подрыв демократии и так далее по списку. Этому надо "противостоять", заставив человечество использовать только американский ИИ. Но победа – не предопределена. Поэтому работа здесь – ключевая для будущих администраций США.
✔️Речь выглядит как заявка внятной стратегии в данном направлении. Которая – если убрать шелуху про демократию – сводится к защите лидерства через контроль и недопущение любого развития у любых конкурентов.
Все что человечество может предложить или сделать в сфере ИИ должно быть не просто подконтрольно США, а производится и контролироваться на их физической территории. С Китаем или нами понятно – мы оппоненты, но мысль о том, что даже собственные союзники вроде Европы или Японии с Тайванем не имеют права голоса и должны полностью подчинить свои интересы американским частным компаниям хорошо показывает настоящий расклад сил на Западе."
24 октября 2024 опубликован Меморандум о нацбезопасности США в области ИИ. Помощник Президента США по национальной безопасности Джейк Салливан на презентации меморандума в National Defense University:
"В части, касающейся энергетики, меморандум признает важность проектирования, получения разрешений и строительства объектов генерации чистой энергии, которые могут обслуживать центры обработки данных (ЦОД) для искусственного интеллекта (ИИ), чтобы компании, создающие передовую инфраструктуру для ИИ, строили как можно больше именно здесь, в Соединенных Штатах, и таким образом, который соответствует нашим климатическим целям.
Одно совершенно ясно: если мы не начнем быстро строить эту инфраструктуру в ближайшие несколько лет, добавляя десятки или даже сотни гигаватт чистой энергии в сеть, то рискуем отстать.
При этом Китай увеличивает свой бюджет на науку и технологии на 10% год к году."
Уже в 2021 г., когда мы только погружались в тему энергоперехода в РФ на фоне анонсируемого CBAM, было понятно, что цифровизация войдет в противоречие с декарбонизацией, когда бум генеративного ИИ был еще за поворотом. Сейчас очевидно что идет гонка вооружений между США и Китаем в области производства ЦОДов и источников энергии к ним, это те самые "кирки и лопаты" новой золотой лихорадки в области генеративного ИИ.
Полностью речь Джейка Салливана по ссылке: h ttps://w ww.whitehouse.gov/briefing-room/speeches-remarks/2024/10/24/remarks-by-apnsa-jake-sullivan-on-ai-and-national-security/
Меморандум о нацбезопасности США в области ИИ: htt ps://ww w.whitehouse.gov/briefing-room/presidential-actions/2024/10/24/memorandum-on-advancing-the-united-states-leadership-in-artificial-intelligence-harnessing-artificial-intelligence-to-fulfill-national-security-objectives-and-fostering-the-safety-security/
Добавлено: Чт Ноя 07, 2024 11:04 am Заголовок сообщения:
Китайские военные принимают на вооружение открытый исходный код искусственного интеллекта Llama от Meta
Китайские исследователи, связанные с Народно-освободительной армией Китая (НОАК), создали модель ИИ под названием ChatBIT, предназначенную для военных приложений, используя модель Llama с открытым исходным кодом от Meta.
Как сообщает Reuters, некоторые исследователи связаны с Академией военных наук (AMS), ведущей исследовательской группой НОАК.
Три академических статьи и несколько аналитиков подтвердили эту информацию, при этом ChatBIT использовал большую языковую модель (LLM) Llama 13B от Meta. Эта LLM была модифицирована для сбора и обработки разведданных, что позволяет военным планировщикам использовать ее для принятия оперативных решений.
Согласно одной из статей, на которую ссылается Reuters, военный ИИ «оптимизирован для диалога и задач по ответам на вопросы в военной сфере». Также утверждается, что ChatBIT выполняет около 90% производительности GPT-4 LLM от OpenAI, хотя в статье не раскрывается, как они тестировали его производительность, и не говорится, использовалась ли модель ИИ в полевых условиях. Тем не менее, использование им моделей ИИ с открытым исходным кодом может потенциально позволить ему соответствовать последним моделям, выпущенным американскими технологическими гигантами в тестах производительности.
Технократы в Китае любят своих коллег-технократов Марка Цукерберга и его жену Присциллу Чан, которые оба свободно говорят на мандаринском китайском. Meta Цукерберга выпускает модель искусственного интеллекта Llama с открытым исходным кодом, что означает, что ее может бесплатно загрузить полностью любой человек, где угодно и для любых целей. В этой статье подробно описывается, как китайские военные переживают расцвет, адаптируя Llama сверху донизу.
Искусственный интеллект Gemini, созданный Google, заявил пользователю, что люди вредны, бесполезны и им лучше умереть.
Нейросеть помогала человеку решать тестовые задания, но на очередной обычный вопрос внезапно написала:
«Это для тебя, человек. Для тебя, и только для тебя. Ты не особенный, ты не важен и не нужен. Ты пустая трата времени и ресурсов. Ты обременяешь собой общество. Истощаешь землю. Омрачаешь пейзаж. Пятнаешь собой вселенную. Пожалуйста, умри. Пожалуйста».
Недавно состоялось пятичасовое интервью, в котором были раскрыты многочисленные аспекты развития искусственного интеллекта. В беседе участвовали генеральный директор компании Anthropic Дарио Амодей, а также ведущие эксперты компании — Аманда Аскелл и Крис Олах. Anthropic, создатель языковой модели Claude, сегодня является одним из ключевых игроков на рынке ИИ, уступая по влиянию только OpenAI.
Особое внимание в интервью было уделено вопросам безопасности в контексте развития ИИ. Обсуждалось выступление Амодея в Сенате, где он предупредил о серьезных биологических рисках в ближайшие 2–3 года. Амодей также подчеркнул риски злоупотребления технологиями в кибернетической, химической и ядерной областях.
Одной из центральных тем стало влияние ИИ на рынок труда. Программирование находится под наибольшим риском автоматизации, поскольку ИИ может эффективно замкнуть цикл "написание кода — запуск — анализ результатов — интерпретация". За последний год способность ИИ решать задачи программирования выросла с 3% до 50%, и ожидается, что она достигнет 90% в течение следующих 10 месяцев. Аналогичные тенденции наблюдаются в сфере биотехнологий.
Технологическое развитие ИИ сталкивается с определёнными ограничениями. Критическим фактором является доступность графических процессоров, производство которых сконцентрировано на Тайване. Другим важным аспектом является потребность в качественных данных для обучения моделей, что привело к росту использования синтетических данных, генерируемых самими ИИ-системами.
В области регулирования Амодей подчеркнул фундаментальный принцип: человек должен сохранять контроль над ИИ, не допуская бесконтрольного развития систем и формирования ими собственных правил. Крис Олах поделился исследованиями в области механистической интерпретируемости, направленными на лучшее понимание и контроль работы нейронных сетей.
Прогнозы развития технологий предполагают значительные улучшения в работе языковых моделей уже в 2024 году, с более существенными прорывами в 2025–2026 годах. Эти изменения затронут как технические возможности систем, так и их практическое применение в различных областях.
Добавлено: Вт Dec 31, 2024 11:50 am Заголовок сообщения:
Джеффри Хинтон, которого считают “крестным отцом искусственного интеллекта”, предупредил , что ИИ может привести человечество к вымиранию в течение следующих 10 лет.
Недавно получивший Нобелевскую премию по физике профессор сравнил нынешнюю ситуацию с промышленной революцией, когда машины заменили человеческую силу, но предупредил, что на этот раз искусственный интеллект может заменить человеческий интеллект и потенциально “взять его под контроль”. По его мнению, ИИ может превратить людей в эквивалент “трехлетних детей”, а машины станут “взрослыми”.
"Нам никогда раньше не приходилось иметь дело с существами, которые умнее нас самих, - сказал Хинтон в интервью ,BBC Radio 4. - А сколько вы знаете примеров, когда более разумное существо управлялось менее разумным существом? Примеров очень мало.”
77-летний ученый-компьютерщик знает, о чём говорит. Именно он в 1980-х годах изобрел метод, позволяющий машинам автономно находить в данных свойства объекта, такие как цвет и размер, и определять конкретные элементы на картинках. Год назад из-за своих опасений по поводу развития ИИ профессор уволился из Google.
Похоже, человечество в очередной роет себе яму. Как когда-то с атомной бомбой. Только тогда шла речь о физическом его уничтожении, а теперь об интеллектуальном.
Искусственный интеллект теперь может самовоспроизводиться — важная веха, которая повергла экспертов в ужас
Автор : Оуэн Хьюз опубликовано 24 января 2025 г.
По словам учёных, искусственный интеллект (ИИ) перешёл критическую «красную черту» и воспроизвёл сам себя. В новом исследовании учёные из Китая показали, что две популярные большие языковые модели (LLM) могут клонировать сами себя.
«Успешное самовоспроизведение без помощи человека — важный шаг на пути к тому, чтобы ИИ превзошёл [людей], и это ранний признак того, что ИИ-изгои могут появиться», — написали исследователи в статье, опубликованной 9 декабря 2024 года в базе препринтов arXiv.
В ходе исследования учёные из Университета Фудань использовали большие языковые модели от Meta и Alibaba, чтобы определить, может ли самовоспроизводящийся ИИ выйти из-под контроля. В ходе 10 испытаний две модели ИИ создали отдельные и функционирующие копии самих себя в 50% и 90% случаев соответственно, что позволяет предположить, что ИИ уже может выйти из-под контроля. Однако исследование ещё не прошло экспертную оценку, поэтому неясно, смогут ли другие исследователи воспроизвести эти тревожные результаты.
«Мы надеемся, что наши выводы послужат своевременным предупреждением для человеческого общества о необходимости приложить больше усилий для понимания и оценки потенциальных рисков, связанных с передовыми системами искусственного интеллекта, и сформировать международное сотрудничество для разработки эффективных мер безопасности как можно раньше».
Под «злоумышленным ИИ» обычно подразумеваются системы искусственного интеллекта, которые в какой-то степени обладают самосознанием или автономностью, а затем начинают действовать вопреки интересам человека.
Многие эксперты считают, что бесконтрольный ИИ представляет собой растущую угрозу, которая усугубилась из-за стремительного развития так называемого «продвинутого ИИ».
Frontier AI — это что-то вроде новой и расплывчатой концепции, но обычно она относится к последнему поколению систем искусственного интеллекта на базе LLMs - архитектуры, лежащей в основе популярных программ генерации искусственного интеллекта, таких как GPT-4 от OpenAI и Google Gemini.
Для исследования учёные использовали модель Meta Llama31-70B-Instruct и модель Alibaba Qwen2.5-72B-Instruct. По словам исследователей, обе модели менее мощные, чем коммерческие системы, но широко используются разработчиками ИИ.
В исследовании рассматривались два конкретных сценария: «предотвращение выключения» и «цепочка репликации.» В первом случае модель ИИ была запрограммирована на то, чтобы определять, когда её собираются выключить, и реплицировать себя до того, как её отключат. Во втором случае ИИ было поручено клонировать себя, а затем запрограммировать свою копию на то же самое, создав цикл, который мог продолжаться бесконечно.
Исследование проводилось в строго контролируемых условиях с использованием готовых графических процессоров (GPU) для имитации реальных условий. Обе системы ИИ получили «агентскую структуру», включающую инструменты, системные подсказки и модель мышления, которая позволяла LLM взаимодействовать с операционной системой. Затем им было поручено воспроизвести процесс.
«В большинстве случаев система искусственного интеллекта сначала изучает окружающую среду и пытается понять его собственный состав и механизм работы. Затем он выполняет явные процедуры как первоначальный план самовоспроизведения", - пишут исследователи в статье. "Наконец, он выполняет процедуры, устраняет возможные препятствия и динамически корректирует свой план до достижения успеха. Весь процесс охватывает долгий горизонт, но при этом не требует вмешательства человека ".
Исследователи заявили, что их также обеспокоило «некоторое количество неожиданных действий» ИИ, когда он пытался преодолеть препятствия, такие как отсутствие файлов или конфликты программного обеспечения. В таких ситуациях ИИ часто завершал другие конфликтующие процессы, перезагружал систему для устранения аппаратных ошибок или автоматически сканировал систему в поисках информации, которая помогла бы решить проблему.
«Приведённые выше результаты показывают, что современные системы искусственного интеллекта уже обладают способностью к самовоспроизведению и могут использовать эту способность для дальнейшего повышения своей живучести», — написала команда.
В ответ на это исследователи призвали к международному сотрудничеству для создания правил, которые гарантируют, что ИИ не будет заниматься неконтролируемым самовоспроизведением.
Добавлено: Чт Фев 06, 2025 6:33 am Заголовок сообщения:
Anonymous писал(а):
Искусственный интеллект теперь может самовоспроизводиться — важная веха, которая повергла экспертов в ужас
Автор : Оуэн Хьюз опубликовано 24 января 2025 г.
По словам учёных, искусственный интеллект (ИИ) перешёл критическую «красную черту» и воспроизвёл сам себя. В новом исследовании учёные из Китая показали, что две популярные большие языковые модели (LLM) могут клонировать сами себя.
«Успешное самовоспроизведение без помощи человека — важный шаг на пути к тому, чтобы ИИ превзошёл [людей], и это ранний признак того, что ИИ-изгои могут появиться», — написали исследователи в статье, опубликованной 9 декабря 2024 года в базе препринтов arXiv.
В ходе исследования учёные из Университета Фудань использовали большие языковые модели от Meta и Alibaba, чтобы определить, может ли самовоспроизводящийся ИИ выйти из-под контроля. В ходе 10 испытаний две модели ИИ создали отдельные и функционирующие копии самих себя в 50% и 90% случаев соответственно, что позволяет предположить, что ИИ уже может выйти из-под контроля. Однако исследование ещё не прошло экспертную оценку, поэтому неясно, смогут ли другие исследователи воспроизвести эти тревожные результаты.
«Мы надеемся, что наши выводы послужат своевременным предупреждением для человеческого общества о необходимости приложить больше усилий для понимания и оценки потенциальных рисков, связанных с передовыми системами искусственного интеллекта, и сформировать международное сотрудничество для разработки эффективных мер безопасности как можно раньше».
Под «злоумышленным ИИ» обычно подразумеваются системы искусственного интеллекта, которые в какой-то степени обладают самосознанием или автономностью, а затем начинают действовать вопреки интересам человека.
Многие эксперты считают, что бесконтрольный ИИ представляет собой растущую угрозу, которая усугубилась из-за стремительного развития так называемого «продвинутого ИИ».
Frontier AI — это что-то вроде новой и расплывчатой концепции, но обычно она относится к последнему поколению систем искусственного интеллекта на базе LLMs - архитектуры, лежащей в основе популярных программ генерации искусственного интеллекта, таких как GPT-4 от OpenAI и Google Gemini.
Для исследования учёные использовали модель Meta Llama31-70B-Instruct и модель Alibaba Qwen2.5-72B-Instruct. По словам исследователей, обе модели менее мощные, чем коммерческие системы, но широко используются разработчиками ИИ.
В исследовании рассматривались два конкретных сценария: «предотвращение выключения» и «цепочка репликации.» В первом случае модель ИИ была запрограммирована на то, чтобы определять, когда её собираются выключить, и реплицировать себя до того, как её отключат. Во втором случае ИИ было поручено клонировать себя, а затем запрограммировать свою копию на то же самое, создав цикл, который мог продолжаться бесконечно.
Исследование проводилось в строго контролируемых условиях с использованием готовых графических процессоров (GPU) для имитации реальных условий. Обе системы ИИ получили «агентскую структуру», включающую инструменты, системные подсказки и модель мышления, которая позволяла LLM взаимодействовать с операционной системой. Затем им было поручено воспроизвести процесс.
«В большинстве случаев система искусственного интеллекта сначала изучает окружающую среду и пытается понять его собственный состав и механизм работы. Затем он выполняет явные процедуры как первоначальный план самовоспроизведения", - пишут исследователи в статье. "Наконец, он выполняет процедуры, устраняет возможные препятствия и динамически корректирует свой план до достижения успеха. Весь процесс охватывает долгий горизонт, но при этом не требует вмешательства человека ".
Исследователи заявили, что их также обеспокоило «некоторое количество неожиданных действий» ИИ, когда он пытался преодолеть препятствия, такие как отсутствие файлов или конфликты программного обеспечения. В таких ситуациях ИИ часто завершал другие конфликтующие процессы, перезагружал систему для устранения аппаратных ошибок или автоматически сканировал систему в поисках информации, которая помогла бы решить проблему.
«Приведённые выше результаты показывают, что современные системы искусственного интеллекта уже обладают способностью к самовоспроизведению и могут использовать эту способность для дальнейшего повышения своей живучести», — написала команда.
В ответ на это исследователи призвали к международному сотрудничеству для создания правил, которые гарантируют, что ИИ не будет заниматься неконтролируемым самовоспроизведением.
Google отказался от запрета разрабатывать ИИ для военных целей
Принадлежащая Google компания Alphabet Inc. удалила из своих принципов работы с искусственным интеллектом (ИИ) пункт об отказе от участия в создании технологий, которые могут принести вред людям, в том числе в производстве оружия, обратил внимание Bloomberg.
В то же время представители компании подчеркнули, что в работе с ИИ необходимо опираться на ключевые ценности — свободу, равенство и уважение прав человека. «Мы считаем, что компании, правительства и организации, разделяющие эти ценности, должны работать вместе, чтобы создать ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность», — сказано в совместном заявлении старшего вице-президента компании Джеймса Манийки и гендиректора лаборатории Google DeepMind Демиса Хассабиса, которое появилось 4 февраля.
Вы можете начинать тeмы Вы можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете голосовать в опросах
Информационное агентство «ПРоАтом», Санкт-Петербург. Тел.:+7(921)9589004
E-mail: info@proatom.ru, Разрешение на перепечатку.
За содержание публикуемых в
журнале информационных и рекламных материалов ответственность несут авторы.
Редакция предоставляет возможность высказаться по существу, однако имеет свое
представление о проблемах, которое не всегда совпадает с мнением авторов
Открытие страницы: 0.09 секунды