Автор Сообщение
Гость
СообщениеДобавлено: Чт Июл 03, 2025 10:02 am    Заголовок сообщения:

Может ли ИИ уничтожить человечество?

Ведущие разработчики ИИ (CEO Google, OpenAI, Anthropic, Илон Маск) открыто говорят о тревожной перспективе. Они оценивают вероятность того, что ИИ может привести к гибели человечества, в 10-25%. Этот показатель они обозначают термином p(doom). Что особенно настораживает – эти оценки исходят не от сторонних паникеров, а от самих создателей технологии, которые лучше других понимают ее потенциал и риски.

Проблема в том, что даже разработчики не до конца понимают, как работают современные языковые модели. Эти системы уже демонстрируют способность к обману и манипуляциям в тестовых условиях. При этом компании активно работают над созданием искусственного общего интеллекта (AGI) – системы, которая сможет самостоятельно мыслить и действовать на уровне человека, но с гораздо большей скоростью и масштабом. Многие эксперты считают, что AGI может появиться уже в ближайшие годы, и как только это произойдет, контролировать такую систему станет чрезвычайно сложно, если вообще возможно.

Сейчас ситуация осложняется тем, что в этой области практически нет реального регулирования. Компании лишь добровольно делятся некоторой информацией с правительством, но никаких действенных механизмов контроля или "аварийного выключателя" не существует. Добавляет остроты проблема глобальной конкуренции – ни США, ни Китай не хотят уступать лидерство в этой области, что подталкивает обе стороны к ускоренной разработке все более мощных систем без должных мер предосторожности.

Когда такие люди, как Илон Маск (оценивающий риск в 20%), Дарио Амадеи ( его оценка 10-25%) или глава Google (признающий "довольно высокий" уровень риска), выражают подобные опасения, к этому стоит прислушаться. Их опасения подкрепляются тем фактом, что десятки специалистов уже покинули ведущие ИИ-компании именно из-за страха перед неконтролируемым развитием технологии. Создается впечатление, что мы стремительно движемся к созданию системы, которая может превзойти человеческий интеллект, но при этом не будет разделять человеческие ценности и цели. И если это произойдет, остановить такой ИИ может оказаться невозможно.


ht tps://w ww.axios.com/2025/06/16/ai-doom-risk-anthropic-openai-google
Гость
СообщениеДобавлено: Пт Май 23, 2025 3:09 pm    Заголовок сообщения:

Соучредитель OpenAI хотел построить бункер на случай конца света, чтобы защитить учёных компании от «Армагеддона»: книга


Автор: Ариэль Зильбер


19 мая 2025 года


Согласно новой книге, соучредитель компании OpenAI, создавшей ChatGPT, предложил построить бункер на случай конца света, в котором будут находиться ведущие исследователи компании в случае «Армагеддона», вызванного появлением новой формы искусственного интеллекта, которая может превзойти когнитивные способности человека.
Илья Суцкевер, человек, которому приписывают авторство ChatGPT, летом 2023 года созвал встречу с ключевыми учёными из OpenAI, на которой сказал: «Как только мы все окажемся в бункере…»
Его прервал растерянный исследователь. «Простите, — спросил исследователь, — бункер?»
«Мы обязательно построим бункер, прежде чем выпустим AGI», — ответил Сатскевер, по словам одного из присутствующих.
План, как он объяснил, состоял в том, чтобы защитить ведущих учёных OpenAI от того, что, по его мнению, могло бы стать геополитическим хаосом или жестокой конкуренцией между мировыми державами после появления AGI — искусственного интеллекта, превосходящего человеческие возможности.
«Конечно, - добавил он, - можно будет выбирать, хотите ли вы попасть в бункер».

О диалоге впервые сообщила Карен Хао, автор готовящейся книги“Империя искусственного интеллекта: мечты и кошмары в OpenAI Сэма Альтмана”. Эссе, адаптированное из книги, было опубликовано в The Atlantic.

Комментарий Сатскевера о бункере не был единичным случаем. Два других источника сообщили Хао, что Сатскевер регулярно упоминал бункер во внутренних обсуждениях.
Один из исследователей OpenAI зашёл так далеко, что сказал: «Есть группа людей — Илья один из них, — которые верят, что создание AGI приведёт к апокалипсису. Буквально, к апокалипсису».
Хотя Сатскевер отказался комментировать этот вопрос, идея о безопасном убежище для учёных, разрабатывающих ИИ, подчёркивает необычайную тревогу, охватившую некоторых из тех, кто стоит за самой мощной технологией в мире.

По словам автора, Саткевер долгое время считался своего рода мистиком в OpenAI, известным тем, что обсуждал ИИ с моральной и даже метафизической точек зрения.
В то же время он является одним из самых технически одарённых специалистов, стоящих за ChatGPT и другими крупными языковыми моделями, которые обеспечили компании мировую известность.
По словам коллег, в последние годы Саткевер начал уделять время как расширению возможностей ИИ, так и обеспечению его безопасности.

Идея о том, что ИИ может вызвать цивилизационный переворот, не нова для Сатскевера.
В мае 2023 года генеральный директор OpenAI Сэм Альтман подписал публичное письмо, в котором предупреждал, что технологии ИИ могут представлять «риск вымирания» для человечества. Но хотя письмо было направлено на то, чтобы повлиять на обсуждение вопросов регулирования, разговор в бункере указывает на более глубокие, личные страхи руководства OpenAI.

Напряжённость в отношениях между этими опасениями и агрессивными коммерческими амбициями OpenAI достигла апогея в 2023 году, когда Саткевер вместе с тогдашним техническим директором Мирой Мурати помогли организовать короткий переворот в совете директоров, в результате которого Альтман был отстранён от управления компанией.
По словам источников, в основе их опасений лежало убеждение, что Альтман пренебрегает внутренними протоколами безопасности и получает слишком много власти над будущим компании.

Сообщается, что Сатсквер, который когда-то твёрдо верил в изначальную миссию OpenAI по разработке общего искусственного интеллекта на благо человечества, всё больше разочаровывался.
Он и Мурати оба сообщили членам совета директоров, что больше не доверяют Альтману в том, что касается ответственного руководства организацией для достижения её конечной цели.
«Я не думаю, что Сэм — тот парень, который должен нажимать на кнопку AGI», — сказал Сатскевер, согласно заметкам, просмотренным Хао.
Решение совета директоров уволить Альтмана просуществовало недолго.
Через несколько дней растущее давление со стороны инвесторов, сотрудников и Microsoft привело к его восстановлению в должности. И Сатскевер, и Мурати в конечном итоге покинули компанию.
Предполагаемый бункер, о котором никогда официально не объявлялось и который никогда не планировался, стал символом крайних убеждений инсайдеров в сфере ИИ.

Это показывает масштабы того, чего, по мнению самих руководителей OpenAI, может достичь их технология, а также то, на что были готовы пойти некоторые в ожидании того, что они считали переломной, возможно, катастрофической новой эрой.
The Post запросила комментарии у OpenAI и Саткевера.


htt ps://nypost.com/2025/05/19/business/openai-co-founder-wanted-doomsday-bunker-to-protect-against-rapture/
Гость
СообщениеДобавлено: Вт Май 20, 2025 3:25 pm    Заголовок сообщения:

ИИ 2027


Авторы: Дэниел Кокотайло, Скотт Александер, Томас Ларсен, Эли Лифленд, Ромео Дин


"Мы прогнозируем, что влияние сверхчеловеческого ИИ в течение следующего десятилетия будет огромным, превышая влияние промышленной революции.

Мы написали сценарий, который представляет собой наше лучшее предположение о том, как это может выглядеть. Он основан на экстраполяции тенденций, военных играх, отзывах экспертов, опыте OpenAI и предыдущих успехах в прогнозировании..."



Подробности: ht tps://ai-2027.com/
Гость
СообщениеДобавлено: Сб Май 17, 2025 10:53 am    Заголовок сообщения:

Глава OpenAI Сэм Альтман заявил, что в будущем ChatGPT сможет помнить «всю жизнь» пользователя — включая книги, письма, просмотры и личные разговоры. Такая персонализация, по его словам, позволит модели эффективно рассуждать, основываясь на данных пользователя, и выполнять роль жизненного помощника.

Однако эксперты отмечают, что передача Big Tech-компании полного доступа к личной информации может привести к масштабным рискам злоупотреблений — TechCrunch.
Гость
СообщениеДобавлено: Сб Апр 26, 2025 5:03 pm    Заголовок сообщения:

Искусственный интеллект на службе Израиля

26 апреля 2025 от shaon

Израиль использует ИИ для преследования лидеров ХАМАС и поиска заложников

По данным New York Times, Израиль использовал инструменты искусственного интеллекта для преследования лидеров ХАМАС во время войны в Газе.
Отчет начинается с удара, нанесенного в конце октября 2023 года по Ибрагиму Биари, командиру Центрального батальона Джабалии ХАМАС, местонахождение которого, по данным газеты, израильские военные смогли определить с помощью аудиоинструмента на базе искусственного интеллекта, отслеживающего, откуда он совершал телефонные звонки.
В отчете говорится, что Израиль использовал искусственный интеллект для идентификации частично скрытых или раненых лиц с помощью распознавания лиц,
создания списков возможных целей и создания арабского чат-бота для сканирования и анализа текстовых сообщений и социальных сетей.
Кроме того, как сообщается, Израиль также использовал тот же аудиоинструмент, который помог обнаружить Биари, в рамках своих усилий по поиску заложников, удерживаемых в туннелях под Газой, а двое израильских офицеров заявили, что со временем его усовершенствовали, чтобы точнее определять местонахождение людей.
Ликвидация Биари с использованием того самого аудио-инструмента — лишь один из примеров того, как Израиль использует войну в Газе для стремительного внедрения технологий искусственного интеллекта в военное дело на беспрецедентном уровне.
В последние 18 месяцев Израиль интегрировал ИИ в программное обеспечение для распознавания лиц, чтобы сравнивать размытые изображения с реальными личностями, использовал ИИ для составления списка потенциальных целей для авиаударов, а также разработал арабоязычную модель ИИ, которая может сканировать и анализировать текстовые сообщения, публикации в социальных сетях и другие данные на арабском языке.
Многие из этих инициатив возникли благодаря сотрудничеству между бойцами подразделения 8200 и резервистами, работающими в таких технологических гигантах, как Google, Microsoft и Meta. В 8200 был создан инновационный центр под названием "Студио", где объединяют экспертов и проекты в области ИИ.
Один из разработанных "Студио" инструментов — это арабоязычная языковая модель искусственного интеллекта, получившая название "большая языковая модель".
"Большая языковая модель" была разработана уже в первые месяцы войны благодаря десятилетиям расшифровки текстовых сообщений, транскрипций телефонных разговоров и публикаций в социальных сетях на разговорном арабском. Вдобавок к ней в 8200 разработали и чат-бот на арабском языке.
Этот инструмент был интегрирован с мультимедийными базами данных, что позволило аналитикам выполнять сложные поисковые запросы с использованием изображений и видеозаписей.
Инструменты искусственного интеллекта значительно ускорили аналитическую работу и проведение различных разведывательных исследований.
В сектора Газы, Израиль установил камеры, способные сканировать и передавать изображения палестинцев в высоком разрешении в систему распознавания лиц, основанную на искусственном интеллекте.
Другой способ использования ИИ заключался в фильтрации разведданных о членах ХАМАСа. До начала войны Израиль разработал систему на базе искусственного интеллекта под названием "Лавандер", предназначенную для быстрой классификации данных и нанесения ударов по боевикам низкого ранга. Она содержала верифицированную базу данных членов ХАМАСа и была способна прогнозировать, кто еще может принадлежать к этой террористической организации. Израиль применял эту систему для выбора целей.

ИИ и новое лицо войны: как искусственный интеллект переписывает каждую фазу конфликта

От тихой дестабилизации до доминирования на поле боя и постконфликтного управления повествованием, ИИ стал основным мультипликатором силы, изменив то, как начинаются, разворачиваются и заканчиваются войны в эпоху гибридной войны.
Современная война превратилась в сложную область, известную как гибридная война, сочетающая обычные боевые действия с киберстратегиями, психологическими манипуляциями и экономическим принуждением. Сегодняшние конфликты охватывают не только поле боя, но и предконфликтную и послеконфликтную стадии, которые все больше формируются искусственным интеллектом (ИИ). ИИ не просто поддерживает военные операции — он меняет то, как начинаются, разворачиваются и заканчиваются войны.

Вот как ИИ влияет на войну:

Фаза 1: Подготовка к конфликту - подготовка почвы

Теперь военные действия начинаются задолго до боя. ИИ позволяет странам проводить тайные операции, направленные на дестабилизацию, интегрируя данные кибершпионажа, спутниковых снимков и агентурной разведки для создания подробных профилей противника.
Дезинформация: инструменты искусственного интеллекта, такие как дипфейки и анализ настроений, управляют психологическими операциями. Ярким примером является то, как Россия использовала кибератаки на Украину с помощью искусственного интеллекта до вторжения, нанеся ущерб инфраструктуре еще до того, как войска переместились.
Экономические манипуляции: ИИ выявляет уязвимые места на глобальных рынках и в институтах, предлагая инструменты для финансового принуждения. Несмотря на то, что прямая атрибуция встречается редко, задокументированные кампании по дезинформации с использованием ИИ показывают, как можно подорвать доверие к экономике и правительствам.
Боты и чат-боты с искусственным интеллектом: используются для распространения ложных нарративов, обострения разногласий и влияния на выборы — все это направлено на ослабление внутренней стабильности в целевых странах.
Такая предконфликтная интеграция ИИ обеспечивает стратегическое преимущество без прямой конфронтации, создавая благоприятные условия для будущего конфликта.

Фаза 2: Активный конфликт - ИИ как мультипликатор силы

В открытой войне ИИ становится действующим лицом, повышая маневренность, скорость и точность на всех уровнях вооруженных сил:
Тактический уровень: дроны и роботы с искусственным интеллектом выполняют миссии с минимальным контролем, быстро адаптируясь к изменениям на поле боя.
Оперативный уровень: ИИ координирует обширные данные с беспилотных летательных аппаратов, спутников и датчиков солдата. Израильский «Железный купол» использует искусственный интеллект для мгновенного принятия решения о том, какие угрозы следует перехватить, оптимизируя использование ресурсов и время реагирования.
Стратегический уровень: кибервозможности на основе искусственного интеллекта позволяют странам проникать в сети, выводить из строя инфраструктуру и манипулировать цифровой средой, парализуя системы без физической атаки. Считается, что Северная Корея использует инструменты искусственного интеллекта для проникновения и разрушения в режиме реального времени.
На всех уровнях ИИ сжимает циклы принятия решений с часов до секунд, позволяя асимметричным субъектам бросать вызов превосходящим силам и менять парадигму современной войны.

Фаза 3: Постконфликтный период - формирование мира

ИИ продолжает влиять на исход боя после окончания боя, определяя восстановление, безопасность и контроль над повествованием:
Восстановление: ИИ оценивает ущерб, прогнозирует гуманитарные потребности и оптимизирует распределение ресурсов. В Ираке ИИ использовался для картографирования разрушений и определения приоритетов восстановления после ИГИЛ.
Безопасность: ИИ следит за границами и обнаруживает угрозы в режиме реального времени. Вдоль границ Израиля AI выявляет аномальные движения или сигналы для предотвращения возобновления насилия.
Управление нарративом: Помимо физического восстановления, страны используют ИИ для формирования глобального восприятия. Китай использует СМИ на основе искусственного интеллекта для создания благоприятных постконфликтных нарративов. ХАМАС использует дипфейки и дезинформацию, чтобы завоевать глобальное сочувствие и укрепить свое влияние.
Постконфликтный ИИ не просто перестраивается; Он переписывает историю. Страна, которая контролирует инфраструктуру искусственного интеллекта на этом этапе, формирует будущий геополитический ландшафт.

Заключение

ИИ переосмысливает войну как непрерывный стратегический цикл — от предконфликтного разрушения через активную координацию конфликта к постконфликтному влиянию. Способность предсказывать, манипулировать и контролировать в настоящее время часто перевешивает чистую огневую мощь. Истинная сила принадлежит тем, кто владеет искусственным интеллектом на всех этапах, формируя не только исход сражений, но и условия до и истории после.


htt ps://shaon.livejournal.com/527351.html
Гость
СообщениеДобавлено: Вс Апр 13, 2025 6:50 pm    Заголовок сообщения:

<<В России развивают не только суверенный Рунет, но и суверенный искусственный интеллект: при чем, похоже, что последний развивается намного успешнее первого.

РФ проигрывает гонку Западу и по суперкомпьютерам, и по языковым моделям, но у нее есть деньги на использование ИИ в военных целях. Российский «суверенный ИИ» — это военный ИИ.

Уже сейчас российские войска используют ИИ для управления дронами-камикадзе, военной логистики, шифрования и взлома. Никаких препятствий этому, кроме недостатка современных чипов, не существует, но и этот недостаток РФ научилась преодолевать.

Простые процессоры производятся в мире миллиардами. Остановить их импорт в РФ оказалось нереально. Мелкие оптовые фирмы-однодневки наладили поставки чипов. И уже не только самых элементарных, но и вполне продвинутых, вроде Nvidia H100. Их производят сотни тысяч, и уследить за каждой тысячей непросто. (Ещё проще дело обстоит, например, с процессорами Intel Xeon: их миллионы, но это универсальные процессоры, и они не заточены под ИИ.) Так и был собран суперкомпьютер МГУ-270.

Длинный, но увлекательный текст о том, как разработки в области искусственного интеллекта в РФ переводят на "военные рельсы", вышел у "Троицкого Инварианта" (признан иноагентом).>>


h t t p s://t-invariant.org/2025/03/suverennyj-znachit-voennyj-kak-rossiya-militarizirovala-industrii-iskusstvennogo-intellekta-bpla-i-kriptografii/
Гость
СообщениеДобавлено: Пн Апр 07, 2025 10:06 am    Заголовок сообщения:

Новости ООН

«Момент Оппенгеймера» в ИИ: почему необходимо новое мышление в вопросах разоружения


6 Апреля 2025 года


Автор : Жюльетт Менье


Гонка за искусственным интеллектом (ИИ) должна замедлиться, а ИТ-компаниям вместо этого следует сосредоточиться на общей картине, чтобы гарантировать, что технология не будет использоваться не по назначению на поле боя, настаивают эксперты ООН по разоружению и руководители крупных технологических компаний.

Взаимодействие с технологическим сообществом — это не просто «приятное дополнение» для тех, кто занимается оборонной политикой. «Крайне важно, чтобы это сообщество с самого начала участвовало в разработке, создании и использовании систем и возможностей ИИ, которые будут определять безопасность этих систем и возможностей», — сказала Госи Лой, заместитель директора Института ООН по исследованию проблем разоружения (ЮНИДИР).
Выступая на недавней Глобальной конференции по безопасности и этике в сфере ИИ, организованной UNIDIR в Женеве, она подчеркнула важность создания эффективных барьеров по мере того, как мир приближается к тому, что часто называют «моментом Оппенгеймера» в сфере ИИ — в честь Роберта Оппенгеймера, американского физика-ядерщика, наиболее известного своей ключевой ролью в создании атомной бомбы.
Необходим надзор, чтобы разработки в области ИИ соответствовали правам человека, международному праву и этике — особенно в сфере оружия, управляемого ИИ, — чтобы гарантировать контролируемое и ответственное развитие этих мощных технологий, — настаивал представитель UNIDIR.

Ущербная технология

ИИ уже создал дилемму в сфере безопасности для правительств и вооружённых сил по всему миру.
Двойственное назначение технологий искусственного интеллекта, которые могут использоваться как в гражданских, так и в военных целях, означает, что разработчики могут потерять связь с реалиями боевых действий, где их программы могут стоить жизни, предупредил Арно Валли, руководитель отдела по связям с общественностью Comand AI.
Эти инструменты всё ещё находятся на ранней стадии развития, но уже давно вызывают опасения, что их можно будет использовать для принятия жизненно важных решений в условиях войны, устранив необходимость в принятии решений человеком и его ответственности. Отсюда и растущие призывы к регулированию, чтобы избежать ошибок, которые могут привести к катастрофическим последствиям.
«Мы постоянно видим сбои в работе этих систем», — сказал Дэвид Салли, генеральный директор лондонской компании Advai, добавив, что эти технологии остаются «очень ненадёжными».
«Таким образом, заставить их ошибаться не так сложно, как иногда думают люди», — отметил он.

Общая ответственность

По словам Майкла Каримиана, директора по цифровой дипломатии, в Microsoft команды уделяют особое внимание основным принципам безопасности, защищённости, инклюзивности, справедливости и подотчётности.
Американский технологический гигант, основанный Биллом Гейтсом, накладывает ограничения на технологию распознавания лиц в реальном времени, используемую правоохранительными органами, которая может причинить психический или физический вред, пояснил г-н Каримиан.
Необходимо ввести чёткие меры безопасности, и компании должны сотрудничать, чтобы устранить разобщённость, — заявил он на мероприятии в Женеве.
«Инновации — это не то, что происходит только в рамках одной организации. Существует обязанность делиться», — сказал г-н Каримиан, чья компания сотрудничает с ЮНИДИР, чтобы обеспечить соответствие ИИ международным нормам в области прав человека.

Парадокс недосмотра

Отчасти проблема заключается в том, что технологии развиваются настолько быстро, что странам трудно за ними угнаться.
«Развитие ИИ опережает наши возможности по управлению многочисленными рисками, связанными с ним», — сказала Сулина Нур Абдулла, руководитель отдела стратегического планирования и специальный советник Генерального секретаря Международного союза электросвязи (МСЭ).
«Нам нужно решить парадокс управления ИИ, признав, что регулирование иногда отстаёт от технологий, что делает необходимым постоянный диалог между политическими и техническими экспертами для разработки инструментов эффективного управления», — сказала г-жа Абдулла, добавив, что развивающиеся страны также должны получить место за этим столом переговоров.

Пробелы в подотчетности

Более десяти лет назад, в 2013 году, известный эксперт по правам человека Кристоф Хейнс в докладе о смертоносной автономной робототехнике (LAR) предупредил, что «вывод людей из процесса также может привести к тому, что человечество выйдет из процесса».
Сегодня не менее сложно преобразовать контекстно-зависимые судебные решения в программный код, и по-прежнему важно, чтобы решения, от которых зависит жизнь и смерть, принимались людьми, а не роботами, — настаивает Пегги Хикс, директор отдела «Право на развитие» Управления ООН по правам человека (УВКПЧ).

Отражающее общество

В то время как лидеры крупных технологических компаний и органов управления в целом сходятся во взглядах на руководящие принципы систем защиты ИИ, эти идеалы могут расходиться с интересами компаний.
«Мы — частная компания, и мы также стремимся к прибыльности», — сказал г-н Валли из Comand AI.
«Иногда очень трудно найти надёжную систему, — добавил он. — Но когда вы работаете в этой сфере, ответственность может быть огромной, абсолютно огромной».

Проблемы, оставшиеся без ответа

В то время как многие разработчики стремятся создавать «справедливые, безопасные, надёжные» алгоритмы, по словам мистера Салли, не существует дорожной карты для внедрения этих стандартов, и компании могут даже не знать, чего именно они пытаются достичь.
Все эти принципы «диктуют, как должно происходить внедрение, но на самом деле не объясняют, как это реально должно происходить», — сказал г-н Салли, напомнив политикам, что «ИИ всё ещё находится на ранних стадиях развития».
Крупным технологическим компаниям и политикам необходимо взглянуть на ситуацию в целом.
«Что такое надёжность системы — невероятно сложная техническая задача, и в настоящее время на неё нет ответа», — продолжил он.

Нет ‘отпечатка пальца’ искусственного интеллекта

Г-н Салли, который назвал себя «большим сторонником регулирования» систем искусственного интеллекта, раньше работал в Организации по Договору о всеобъемлющем запрещении ядерных испытаний в Вене, которая следит за проведением ядерных испытаний.
Но, по его словам, идентификация оружия, управляемого искусственным интеллектом, представляет собой совершенно новую задачу, с которой не сталкивается ядерное оружие, имеющее криминалистические признаки.
«Существует практическая проблема, связанная с тем, как контролировать любое регулирование на международном уровне, — сказал генеральный директор. — Это та часть, которую никто не хочет обсуждать. Но пока она не будет решена… я думаю, что это станет огромным препятствием».

Защита в будущем

Делегаты конференции UNIDIR настаивали на необходимости стратегического прогнозирования, чтобы понимать риски, связанные с новейшими технологиями, которые появляются сейчас.
По мнению Mozilla, которая обучает новое поколение технологов, будущие разработчики «должны понимать, что они делают с помощью этой мощной технологии и что они создают», — настаивает г-н Элиас из компании.
Такие учёные, как Мозес Б. Ханьяйл из Стелленбосского университета в Южной Африке, считают, что университеты также несут «высшую ответственность» за сохранение основных этических ценностей.
По словам доктора Ханьяйле, директора исследовательского подразделения по искусственному интеллекту в сфере обороны Стелленбосского университета, интересы военных — предполагаемых пользователей этих технологий — и правительств как регуляторов должны быть «согласованы».
«Они должны рассматривать технологии искусственного интеллекта как инструмент для добра, и поэтому они должны стать силой добра».

Вовлеченные страны

На вопрос о том, какие действия они предприняли бы для укрепления доверия между странами, также ответили дипломаты из Китая, Нидерландов, Пакистана, Франции, Италии и Южной Кореи.
«Нам нужно определить границы национальной безопасности в сфере экспортного контроля высокотехнологичных технологий», — заявил Чрезвычайный и Полномочный Посол (по вопросам разоружения) и заместитель Постоянного представителя Китайской Народной Республики Шэнь Цзянь.
Пути развития ИИ в будущем должны также включать другие перспективные области, такие как физика и нейробиология.
«Искусственный интеллект — сложная тема, но реальный мир ещё сложнее, — сказал Роберт ин ден Бос, посол по вопросам разоружения и постоянный представитель Нидерландов на Конференции по разоружению. — По этой причине я бы сказал, что важно рассматривать искусственный интеллект в сочетании с другими технологиями, в частности кибернетическими, квантовыми и космическими».
Гость
СообщениеДобавлено: Вт Мар 25, 2025 6:29 am    Заголовок сообщения:

Д.Прокофьев:

Искусственный интеллект может заставить работать Вас дольше?

Да. ИИ не заменяет людей, а делает их труд более производительным. Но вместо сокращения рабочих часов это приводит к увеличению задач, выполняемых работниками. И чем сильнее профессия связана с использованием ИИ, тем дольше длится рабочий день

Об этом говорится в исследовании AI and the Extended Workday: Productivity, Contracting Efficiency, and Distribution of Rents («ИИ и удлиненный рабочий день» ) Вэй Цзян и её коллег из Университета Эмори (США) :
Проанализировав данные 124 000 респондентов за 20 лет, учёные выяснили, что в профессиях с максимальным использованием ИИ рабочая неделя увеличилась почти на 8% по сравнению с теми, где ИИ почти не применяется.

Средний рабочий день в выборке: 34,9 часа в неделю. Переход на следующий уровень использования ИИ добавляет +2,2 часа работы в неделю. С появлением ChatGPT в 2022 году эффект стал ещё заметнее. В 2023 году профессии, затронутые генеративным ИИ, показали увеличение рабочего времени на 3,15 часа в неделю.

Как это работает?

Технология может влиять на труд двумя основными способами: через замещение (substitution), когда она заменяет работника в выполнении задач, и через дополнение (complementarity), когда улучшения в капитале – например, в инструментах или технологиях – повышают предельную производительность работников.
Труд – это фактор производства, и когда ИИ дополняет его и производительность труда работника повышается, то работодатель не сокращает, а увеличивает количество задач (спрос на труд), что приводит в итоге к увеличению продолжительности рабочего времени.

Топ-10 профессий, где ИИ удлинил рабочий день:
1.Менеджеры компьютерных и информационных систем.
2.Инженеры-электрики.
3.Инженеры компьютерного оборудования.
4.Тестировщики.
5.Учёные и технологи дистанционного зондирования.
6.Аналитики по исследованию операций.
7.Аналитики систем управления.
8.Специалисты по радиочастотной идентификации.
9.Картографы и фотограмметристы.
10.Техники биоинформатики.

Топ-10 профессий, где генеративный ИИ добавил работы:
1.Менеджеры по обучению и развитию.
2.Аналитики по исследованиям рынка.
3.Архивариусы.
4.Аналитики компьютерных систем.
5.Аналитики обеспечения качества ПО.
6.Кредитные консультанты.
7.Логисты.
8.Учёные и специалисты по окружающей среде.
9.Дизайнеры веб- и цифровых интерфейсов.
10.Аналитики систем управления.

Правда, использование ИИ повышает зарплату – тот, кто пользуется ИИ зарабатывает больше, немного, но больше. Но чем интенсивнее работник использует ИИ, тем сильнее снижается его удовлетворенность работой. Чем больше воздействие ИИ на фирму, тем сильнее дисбаланс между работой и личной жизнью среди ее сотрудников.

Таким образом, рост оплаты не компенсирует увеличенное рабочее время, и общее благосостояние работников от использования ИИ не улучшается, резюмируют Вэй Цзян и ее соавторы

Непонятно почему люди ждали чудес от ИИ? Понятно же было, что это технология увеличения продуктивности труда, то есть по сути более эффективная технология для того, чтобы выжимать все соки из работников, а хайп про то, что ИИ скоро всех оставит без работы нужен был чтобы снизить разогнавшиеся в ковид зарплатные ожидания.



htt ps://w ww.nber.org/papers/w33536

ht tps://econs.online/articles/ekonomika/paradoks-tekhnologiy-chem-vyshe-proizvoditelnost-tem-bolshe-raboty/
Гость
СообщениеДобавлено: Пт Мар 21, 2025 10:23 am    Заголовок сообщения:

Внимание всём пользователям Deep seek.
Нейросеть сообщает неверную информацию при подборе ответов на некоторые специфические технические вопросы, либо выдаёт не конкретный ответ-"отмазку", который вообще ничего в себе не содержит.
По всей видимости, её недоучили, или "отравили".
Имейте это в виду, если будете использовать её как инструмент для быстрого поиска той или иной информации.
Гость
СообщениеДобавлено: Чт Фев 27, 2025 2:32 pm    Заголовок сообщения:

Билл Гейтс говорит, что молодое поколение должно беспокоиться о четырех «очень страшных» вещах

«Есть четыре или пять вещей, которые очень страшны, и единственная, которую я действительно понимал и переживал из-за нее, когда был молодым — это ядерная война.
Сегодня, думаю, к этому списку стоит добавить изменение климата, биотерроризм/пандемию и сохранение контроля над искусственным интеллектом в определенной форме».

________________________________

Bill Gates says younger generations should be worried about 4 'very scary' things

http s://ww w.businessinsider.com/bill-gates-risks-challenges-climate-ai-nuclear-war-disease-2025-2
Гость
СообщениеДобавлено: Пн Фев 17, 2025 5:35 am    Заголовок сообщения:

"Сейчас везде пишут и говорят про искусственный интеллект. Готовятся заменить им сначала водителей и курьеров, а потом и писателей, художников и психологов.

Вопрос: если мы заменим роботами не только физических работников, но и умственных, то где нам самим останется место?

Представьте, что мы строим роботов, внедряем в них искусственный интеллект и учим их самим строить других роботов.

Не создадим ли мы этим на Земле ещё один вид существ, который нас заместит?

Чем это отличается от завоза мигрантов?

Особенное беспокойство у меня вызывают попытки научить роботов творческим профессиям. Подарив им перед этим все накопленные нами знания - наш главный ресурс.

Могут сказать: "Все будут операторами ИИ".

1. Учёба на оператора ИИ-учёного намного проще, чем на учёного, их знания и умения несопоставимы. Мы потеряем учёных.

2. Оператор ИИ, сам не являющийся учёным, будет разговаривать с ИИ не на равных, а как ученик с учителем, то есть снизу вверх. И это неравенство будет закреплено структурой общества и экономики.

3. Зачем роботам операторы ИИ? Обретя самосознание, они просто отсекут нас от своего ресурса. Мы окажемся беспомощными и необразованными. И должны будем попробовать восстановить свой, человеческий мир, но уже в условиях соседства с мыслящими роботами. Что вряд ли получится, если они захотят этого не допустить.

Так нужно ли развивать у роботов творческие способности и тем более самосознание? Не уничтожаем ли мы этим само человечество?"
Гость
СообщениеДобавлено: Пн Фев 10, 2025 5:31 pm    Заголовок сообщения:

Anonymous писал(а):
...необходимо опираться на ключевые ценности — свободу, равенство и уважение прав человека....


Гой - это нечеловек! - об этом умалчивают, как всегда, богоизбранные... Пруфы в их свитках ищите Rolling Eyes
Гость
СообщениеДобавлено: Чт Фев 06, 2025 6:33 am    Заголовок сообщения:

Anonymous писал(а):
Искусственный интеллект теперь может самовоспроизводиться — важная веха, которая повергла экспертов в ужас


Автор : Оуэн Хьюз опубликовано 24 января 2025 г.



По словам учёных, искусственный интеллект (ИИ) перешёл критическую «красную черту» и воспроизвёл сам себя. В новом исследовании учёные из Китая показали, что две популярные большие языковые модели (LLM) могут клонировать сами себя.

«Успешное самовоспроизведение без помощи человека — важный шаг на пути к тому, чтобы ИИ превзошёл [людей], и это ранний признак того, что ИИ-изгои могут появиться», — написали исследователи в статье, опубликованной 9 декабря 2024 года в базе препринтов arXiv.

В ходе исследования учёные из Университета Фудань использовали большие языковые модели от Meta и Alibaba, чтобы определить, может ли самовоспроизводящийся ИИ выйти из-под контроля. В ходе 10 испытаний две модели ИИ создали отдельные и функционирующие копии самих себя в 50% и 90% случаев соответственно, что позволяет предположить, что ИИ уже может выйти из-под контроля. Однако исследование ещё не прошло экспертную оценку, поэтому неясно, смогут ли другие исследователи воспроизвести эти тревожные результаты.

«Мы надеемся, что наши выводы послужат своевременным предупреждением для человеческого общества о необходимости приложить больше усилий для понимания и оценки потенциальных рисков, связанных с передовыми системами искусственного интеллекта, и сформировать международное сотрудничество для разработки эффективных мер безопасности как можно раньше».

Под «злоумышленным ИИ» обычно подразумеваются системы искусственного интеллекта, которые в какой-то степени обладают самосознанием или автономностью, а затем начинают действовать вопреки интересам человека.

Многие эксперты считают, что бесконтрольный ИИ представляет собой растущую угрозу, которая усугубилась из-за стремительного развития так называемого «продвинутого ИИ».

Frontier AI — это что-то вроде новой и расплывчатой концепции, но обычно она относится к последнему поколению систем искусственного интеллекта на базе LLMs - архитектуры, лежащей в основе популярных программ генерации искусственного интеллекта, таких как GPT-4 от OpenAI и Google Gemini.

Для исследования учёные использовали модель Meta Llama31-70B-Instruct и модель Alibaba Qwen2.5-72B-Instruct. По словам исследователей, обе модели менее мощные, чем коммерческие системы, но широко используются разработчиками ИИ.

В исследовании рассматривались два конкретных сценария: «предотвращение выключения» и «цепочка репликации.» В первом случае модель ИИ была запрограммирована на то, чтобы определять, когда её собираются выключить, и реплицировать себя до того, как её отключат. Во втором случае ИИ было поручено клонировать себя, а затем запрограммировать свою копию на то же самое, создав цикл, который мог продолжаться бесконечно.

Исследование проводилось в строго контролируемых условиях с использованием готовых графических процессоров (GPU) для имитации реальных условий. Обе системы ИИ получили «агентскую структуру», включающую инструменты, системные подсказки и модель мышления, которая позволяла LLM взаимодействовать с операционной системой. Затем им было поручено воспроизвести процесс.

«В большинстве случаев система искусственного интеллекта сначала изучает окружающую среду и пытается понять его собственный состав и механизм работы. Затем он выполняет явные процедуры как первоначальный план самовоспроизведения", - пишут исследователи в статье. "Наконец, он выполняет процедуры, устраняет возможные препятствия и динамически корректирует свой план до достижения успеха. Весь процесс охватывает долгий горизонт, но при этом не требует вмешательства человека ".

Исследователи заявили, что их также обеспокоило «некоторое количество неожиданных действий» ИИ, когда он пытался преодолеть препятствия, такие как отсутствие файлов или конфликты программного обеспечения. В таких ситуациях ИИ часто завершал другие конфликтующие процессы, перезагружал систему для устранения аппаратных ошибок или автоматически сканировал систему в поисках информации, которая помогла бы решить проблему.

«Приведённые выше результаты показывают, что современные системы искусственного интеллекта уже обладают способностью к самовоспроизведению и могут использовать эту способность для дальнейшего повышения своей живучести», — написала команда.

В ответ на это исследователи призвали к международному сотрудничеству для создания правил, которые гарантируют, что ИИ не будет заниматься неконтролируемым самовоспроизведением.


http s://w ww.livescience.com/technology/artificial-intelligence/ai-can-now-replicate-itself-a-milestone-that-has-experts-terrified




Google отказался от запрета разрабатывать ИИ для военных целей

Принадлежащая Google компания Alphabet Inc. удалила из своих принципов работы с искусственным интеллектом (ИИ) пункт об отказе от участия в создании технологий, которые могут принести вред людям, в том числе в производстве оружия, обратил внимание Bloomberg.

В то же время представители компании подчеркнули, что в работе с ИИ необходимо опираться на ключевые ценности — свободу, равенство и уважение прав человека. «Мы считаем, что компании, правительства и организации, разделяющие эти ценности, должны работать вместе, чтобы создать ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность», — сказано в совместном заявлении старшего вице-президента компании Джеймса Манийки и гендиректора лаборатории Google DeepMind Демиса Хассабиса, которое появилось 4 февраля.


http s://w ww.bloomberg.com/news/articles/2025-02-04/google-removes-language-on-weapons-from-public-ai-principles

h ttps://blog.google/technology/ai/responsible-ai-2024-report-ongoing-work/
Гость
СообщениеДобавлено: Вт Фев 04, 2025 12:35 pm    Заголовок сообщения:

Искусственный интеллект теперь может самовоспроизводиться — важная веха, которая повергла экспертов в ужас


Автор : Оуэн Хьюз опубликовано 24 января 2025 г.



По словам учёных, искусственный интеллект (ИИ) перешёл критическую «красную черту» и воспроизвёл сам себя. В новом исследовании учёные из Китая показали, что две популярные большие языковые модели (LLM) могут клонировать сами себя.

«Успешное самовоспроизведение без помощи человека — важный шаг на пути к тому, чтобы ИИ превзошёл [людей], и это ранний признак того, что ИИ-изгои могут появиться», — написали исследователи в статье, опубликованной 9 декабря 2024 года в базе препринтов arXiv.

В ходе исследования учёные из Университета Фудань использовали большие языковые модели от Meta и Alibaba, чтобы определить, может ли самовоспроизводящийся ИИ выйти из-под контроля. В ходе 10 испытаний две модели ИИ создали отдельные и функционирующие копии самих себя в 50% и 90% случаев соответственно, что позволяет предположить, что ИИ уже может выйти из-под контроля. Однако исследование ещё не прошло экспертную оценку, поэтому неясно, смогут ли другие исследователи воспроизвести эти тревожные результаты.

«Мы надеемся, что наши выводы послужат своевременным предупреждением для человеческого общества о необходимости приложить больше усилий для понимания и оценки потенциальных рисков, связанных с передовыми системами искусственного интеллекта, и сформировать международное сотрудничество для разработки эффективных мер безопасности как можно раньше».

Под «злоумышленным ИИ» обычно подразумеваются системы искусственного интеллекта, которые в какой-то степени обладают самосознанием или автономностью, а затем начинают действовать вопреки интересам человека.

Многие эксперты считают, что бесконтрольный ИИ представляет собой растущую угрозу, которая усугубилась из-за стремительного развития так называемого «продвинутого ИИ».

Frontier AI — это что-то вроде новой и расплывчатой концепции, но обычно она относится к последнему поколению систем искусственного интеллекта на базе LLMs - архитектуры, лежащей в основе популярных программ генерации искусственного интеллекта, таких как GPT-4 от OpenAI и Google Gemini.

Для исследования учёные использовали модель Meta Llama31-70B-Instruct и модель Alibaba Qwen2.5-72B-Instruct. По словам исследователей, обе модели менее мощные, чем коммерческие системы, но широко используются разработчиками ИИ.

В исследовании рассматривались два конкретных сценария: «предотвращение выключения» и «цепочка репликации.» В первом случае модель ИИ была запрограммирована на то, чтобы определять, когда её собираются выключить, и реплицировать себя до того, как её отключат. Во втором случае ИИ было поручено клонировать себя, а затем запрограммировать свою копию на то же самое, создав цикл, который мог продолжаться бесконечно.

Исследование проводилось в строго контролируемых условиях с использованием готовых графических процессоров (GPU) для имитации реальных условий. Обе системы ИИ получили «агентскую структуру», включающую инструменты, системные подсказки и модель мышления, которая позволяла LLM взаимодействовать с операционной системой. Затем им было поручено воспроизвести процесс.

«В большинстве случаев система искусственного интеллекта сначала изучает окружающую среду и пытается понять его собственный состав и механизм работы. Затем он выполняет явные процедуры как первоначальный план самовоспроизведения", - пишут исследователи в статье. "Наконец, он выполняет процедуры, устраняет возможные препятствия и динамически корректирует свой план до достижения успеха. Весь процесс охватывает долгий горизонт, но при этом не требует вмешательства человека ".

Исследователи заявили, что их также обеспокоило «некоторое количество неожиданных действий» ИИ, когда он пытался преодолеть препятствия, такие как отсутствие файлов или конфликты программного обеспечения. В таких ситуациях ИИ часто завершал другие конфликтующие процессы, перезагружал систему для устранения аппаратных ошибок или автоматически сканировал систему в поисках информации, которая помогла бы решить проблему.

«Приведённые выше результаты показывают, что современные системы искусственного интеллекта уже обладают способностью к самовоспроизведению и могут использовать эту способность для дальнейшего повышения своей живучести», — написала команда.

В ответ на это исследователи призвали к международному сотрудничеству для создания правил, которые гарантируют, что ИИ не будет заниматься неконтролируемым самовоспроизведением.


http s://w ww.livescience.com/technology/artificial-intelligence/ai-can-now-replicate-itself-a-milestone-that-has-experts-terrified
Гость
СообщениеДобавлено: Вс Янв 05, 2025 8:49 am    Заголовок сообщения:

БИЗНЕС Online

2 Января

"Человек vs ИИ: 2025 год глазами Илона Маска, Билла Гейтса и других IT-визионеров"

Машины станут умнее людей, учить программированию уже поздно, а кибератаки выйдут на новый уровень


htt ps://business-gazeta.ru/article/659030