proatom.ru - сайт агентства ПРоАтом
Журналы Атомная стратегия 2024 год
  Агентство  ПРоАтом. 28 лет с атомной отраслью!              
www.proatom.ru :: Просмотр тeмы - ИИ
 FAQFAQ   ПоискПоиск   ГруппыГруппы   ПрофильПрофиль   Войти и проверить личные сообщенияВойти и проверить личные сообщения   ВходВход 





ИИ
На страницу 1, 2  След.
 
Начать новую тeму   Ответить на тeму    Список форумов www.proatom.ru -> Задать вопрос, но ответчика еще нет в списке.
Предыдущая тeма :: Следующая тeма  
Автор Сообщение
Гость






СообщениеДобавлено: Пн Ноя 04, 2024 1:45 pm    Заголовок сообщения: ИИ Ответить с цитатой

Глеб Кузнецов:

"Интересная речь советника по нацбезу США Салливана про перспективы ИИ  в Национальном университете обороны (смесь РАНХИГС с Академией Генштаба, где из штатских госслужащих куют "вашингтонских ястребов").

⬛️ ИИ НАЦИНТЕРЕСОВ

"В этом мире использование ИИ определит будущее, и наша страна должна разработать, как сказал бы генерал Эйзенхауэр, новую доктрину для гарантии, что ИИ работает на нас, наши интересы и наши ценности, а не против нас".

⬛️ Три важные вещи из пониманмя нацбеза США про ИИ:

1. Cкорость развития.  Быстрее, чем видели в других технологиях. В логике "мы только начали что-то пытаться регулировать, а это уже устарело и надо придумывать регулирование под новые вещи".

2. Неопределенность траектории роста ИИ. Наиболее непредсказуемая инновация в истории человечества. Вплоть до того, что никто по-настоящему не знает, принесет ли ИИ ту пользу и даст ли те возможности, которые обещают энтузиасты. Пессимисты тоже очень убедительны. Но властям надо быть готовыми к любому сценарию – от взлета возможностей вертикально вверх до стагнации и разочарования.

3. Минимальная роль государства в инициировании разработки и внедрения. Всем занимаются частные компании. Это создает риски для системы нацбезопасности.

Основы лидерства. "Крупные технологические компании, которые разрабатывают и внедряют системы ИИ, будучи американскими, дали Америке лидерство".  Лидерство надо "защитить и расширить" усилиями государства. Американский частник должен конкурировать с "такими компаниями КНР, как Huawei, чтобы предоставлять цифровые услуги людям по всему миру".

Задача: США должны быть "единственным технологическим партнером для стран по всему миру".

⬛️⏩ Что будут делать США?

1.  Регулирование: США "создали самое лучшее в мире регуляторное пространство для ИИ" и сейчас идет работа над распространением его принципов на страны-союзники. Регулирование не ограничения, а способ обеспечить надежные, безопасные, вызывающие доверие и ограничивающие враждебную конкуренцию условия для лидерства. 

2. Люди. Больше "виз талантов" и гринкарт. США должны "пылесосить" мир в поисках людей способных к работе в этой области и забирать их себе "везде, где это возможно".

3. Оборудование. Чипы: больше для себя, меньше для других. Все "передовые чипы" либо должны быть произведены американскими компаниями, либо их распределение должно находиться под контролем США. Ограничения для других должны касаться не только чипов, но и оборудования для их производства.

4. Электроэнергия. Вся инфраструктура для работы современного ИИ должна возводиться на территории США, а значит быть обеспечена американской дешевой энергией. В переводе с чиновничьего с "климатическими целями"  на человеческий – больше разрешений на строительство и эксплуатацию атомных станций. 

5. "Комиссары" от правительства, следящие за соблюдением нацбеза в работе ИИ-компаний. "Люди из правительства должны тесно сотрудничать с разработчиками ИИ из частного сектора, чтобы обеспечить им своевременные услуги по кибербезопасности и контрразведке для сохранения их технологий". 

⬛️ Главный конкурент и оппонент – Китай. Который ИИ будет использовать непременно в "плохих целях": цензура, фейки, влияние на выборы в других странах, подрыв демократии и так далее по списку. Этому надо "противостоять", заставив человечество использовать только американский ИИ. Но победа – не предопределена. Поэтому работа здесь – ключевая для будущих администраций США.

✔️Речь выглядит как заявка внятной стратегии в данном направлении. Которая – если убрать шелуху про демократию – сводится к защите лидерства через контроль и недопущение любого развития у любых конкурентов.
Все что человечество может предложить или сделать в сфере ИИ должно быть не просто подконтрольно США, а производится и контролироваться на их физической территории. С Китаем или нами понятно – мы оппоненты, но мысль о том, что даже собственные союзники вроде Европы или Японии с Тайванем не имеют права голоса и должны полностью подчинить свои интересы американским частным компаниям хорошо показывает настоящий расклад сил на Западе."
Вернуться к началу
Гость






СообщениеДобавлено: Вт Ноя 05, 2024 8:18 pm    Заголовок сообщения: Ответить с цитатой

Меморандум о нацбезопасности США в области ИИ

24 октября 2024 опубликован Меморандум о нацбезопасности США в области ИИ. Помощник Президента США по национальной безопасности Джейк Салливан на презентации меморандума в National Defense University:

"В части, касающейся энергетики, меморандум признает важность проектирования, получения разрешений и строительства объектов генерации чистой энергии, которые могут обслуживать центры обработки данных (ЦОД) для искусственного интеллекта (ИИ), чтобы компании, создающие передовую инфраструктуру для ИИ, строили как можно больше именно здесь, в Соединенных Штатах, и таким образом, который соответствует нашим климатическим целям.

Одно совершенно ясно: если мы не начнем быстро строить эту инфраструктуру в ближайшие несколько лет, добавляя десятки или даже сотни гигаватт чистой энергии в сеть, то рискуем отстать.

При этом Китай увеличивает свой бюджет на науку и технологии на 10% год к году."

Уже в 2021 г., когда мы только погружались в тему энергоперехода в РФ на фоне анонсируемого CBAM, было понятно, что цифровизация войдет в противоречие с декарбонизацией, когда бум генеративного ИИ был еще за поворотом. Сейчас очевидно что идет гонка вооружений между США и Китаем в области производства ЦОДов и источников энергии к ним, это те самые "кирки и лопаты" новой золотой лихорадки в области генеративного ИИ.

Полностью речь Джейка Салливана по ссылке: h ttps://w ww.whitehouse.gov/briefing-room/speeches-remarks/2024/10/24/remarks-by-apnsa-jake-sullivan-on-ai-and-national-security/

Меморандум о нацбезопасности США в области ИИ: htt ps://ww w.whitehouse.gov/briefing-room/presidential-actions/2024/10/24/memorandum-on-advancing-the-united-states-leadership-in-artificial-intelligence-harnessing-artificial-intelligence-to-fulfill-national-security-objectives-and-fostering-the-safety-security/
Вернуться к началу
Гость






СообщениеДобавлено: Чт Ноя 07, 2024 11:04 am    Заголовок сообщения: Ответить с цитатой

Китайские военные принимают на вооружение открытый исходный код искусственного интеллекта Llama от Meta


Китайские исследователи, связанные с Народно-освободительной армией Китая (НОАК), создали модель ИИ под названием ChatBIT, предназначенную для военных приложений, используя модель Llama с открытым исходным кодом от Meta.

Как сообщает Reuters, некоторые исследователи связаны с Академией военных наук (AMS), ведущей исследовательской группой НОАК.

Три академических статьи и несколько аналитиков подтвердили эту информацию, при этом ChatBIT использовал большую языковую модель (LLM) Llama 13B от Meta. Эта LLM была модифицирована для сбора и обработки разведданных, что позволяет военным планировщикам использовать ее для принятия оперативных решений.

Согласно одной из статей, на которую ссылается Reuters, военный ИИ «оптимизирован для диалога и задач по ответам на вопросы в военной сфере». Также утверждается, что ChatBIT выполняет около 90% производительности GPT-4 LLM от OpenAI, хотя в статье не раскрывается, как они тестировали его производительность, и не говорится, использовалась ли модель ИИ в полевых условиях. Тем не менее, использование им моделей ИИ с открытым исходным кодом может потенциально позволить ему соответствовать последним моделям, выпущенным американскими технологическими гигантами в тестах производительности.

Технократы в Китае любят своих коллег-технократов Марка Цукерберга и его жену Присциллу Чан, которые оба свободно говорят на мандаринском китайском. Meta Цукерберга выпускает модель искусственного интеллекта Llama с открытым исходным кодом, что означает, что ее может бесплатно загрузить полностью любой человек, где угодно и для любых целей. В этой статье подробно описывается, как китайские военные переживают расцвет, адаптируя Llama сверху донизу.


источники

htt ps://ww w.tomshardware.com/tech-industry/artificial-intelligence/chinese-researchers-build-military-ai-using-metas-open-source-llama-model-chatbit-allegedly-performs-at-around-90-percent-of-the-performance-of-openai-gpt-4-llm

h ttps://w ww.technocracy.news/ru/chinas-military-adopts-metas-open-source-llama-ai/
Вернуться к началу
Гость






СообщениеДобавлено: Чт Ноя 14, 2024 9:45 pm    Заголовок сообщения: Ответить с цитатой

Искусственный интеллект Gemini, созданный Google, заявил пользователю, что люди вредны, бесполезны и им лучше умереть.

Нейросеть помогала человеку решать тестовые задания, но на очередной обычный вопрос внезапно написала:
«Это для тебя, человек. Для тебя, и только для тебя. Ты не особенный, ты не важен и не нужен. Ты пустая трата времени и ресурсов. Ты обременяешь собой общество. Истощаешь землю. Омрачаешь пейзаж. Пятнаешь собой вселенную. Пожалуйста, умри. Пожалуйста».

Чат сохранён тут:

h t t p s://gemini.google.com/share/6d141b742a13
Вернуться к началу
Гость






СообщениеДобавлено: Пн Ноя 18, 2024 1:18 pm    Заголовок сообщения: Ответить с цитатой

ИИ и его будущее по версии Anthropic


Недавно состоялось пятичасовое интервью, в котором были раскрыты многочисленные аспекты развития искусственного интеллекта. В беседе участвовали генеральный директор компании Anthropic Дарио Амодей, а также ведущие эксперты компании — Аманда Аскелл и Крис Олах. Anthropic, создатель языковой модели Claude, сегодня является одним из ключевых игроков на рынке ИИ, уступая по влиянию только OpenAI.

Особое внимание в интервью было уделено вопросам безопасности в контексте развития ИИ. Обсуждалось выступление Амодея в Сенате, где он предупредил о серьезных биологических рисках в ближайшие 2–3 года. Амодей также подчеркнул риски злоупотребления технологиями в кибернетической, химической и ядерной областях.

Одной из центральных тем стало влияние ИИ на рынок труда. Программирование находится под наибольшим риском автоматизации, поскольку ИИ может эффективно замкнуть цикл "написание кода — запуск — анализ результатов — интерпретация". За последний год способность ИИ решать задачи программирования выросла с 3% до 50%, и ожидается, что она достигнет 90% в течение следующих 10 месяцев. Аналогичные тенденции наблюдаются в сфере биотехнологий.

Технологическое развитие ИИ сталкивается с определёнными ограничениями. Критическим фактором является доступность графических процессоров, производство которых сконцентрировано на Тайване. Другим важным аспектом является потребность в качественных данных для обучения моделей, что привело к росту использования синтетических данных, генерируемых самими ИИ-системами.

В области регулирования Амодей подчеркнул фундаментальный принцип: человек должен сохранять контроль над ИИ, не допуская бесконтрольного развития систем и формирования ими собственных правил. Крис Олах поделился исследованиями в области механистической интерпретируемости, направленными на лучшее понимание и контроль работы нейронных сетей.

Прогнозы развития технологий предполагают значительные улучшения в работе языковых моделей уже в 2024 году, с более существенными прорывами в 2025–2026 годах. Эти изменения затронут как технические возможности систем, так и их практическое применение в различных областях.


htt ps://youtu.be/ugvHCXCOmm4

h ttps://lexfridman.com/dario-amodei-transcript/
Вернуться к началу
Гость






СообщениеДобавлено: Вт Dec 31, 2024 11:50 am    Заголовок сообщения: Ответить с цитатой

Джеффри Хинтон, которого считают “крестным отцом искусственного интеллекта”, предупредил , что ИИ может привести человечество к вымиранию в течение следующих 10 лет.

Недавно получивший Нобелевскую премию по физике профессор сравнил нынешнюю ситуацию с промышленной революцией, когда машины заменили человеческую силу, но предупредил, что на этот раз искусственный интеллект может заменить человеческий интеллект и потенциально “взять его под контроль”. По его мнению, ИИ может превратить людей в эквивалент “трехлетних детей”, а машины станут “взрослыми”.

"Нам никогда раньше не приходилось иметь дело с существами, которые умнее нас самих, - сказал Хинтон в интервью ,BBC Radio 4. - А сколько вы знаете примеров, когда более разумное существо управлялось менее разумным существом? Примеров очень мало.”

77-летний ученый-компьютерщик знает, о чём говорит. Именно он в 1980-х годах изобрел метод, позволяющий машинам автономно находить в данных свойства объекта, такие как цвет и размер, и определять конкретные элементы на картинках. Год назад из-за своих опасений по поводу развития ИИ профессор уволился из Google.

Похоже, человечество в очередной роет себе яму. Как когда-то с атомной бомбой. Только тогда шла речь о физическом его уничтожении, а теперь об интеллектуальном.
Вернуться к началу
Гость






СообщениеДобавлено: Вс Янв 05, 2025 8:49 am    Заголовок сообщения: Ответить с цитатой

БИЗНЕС Online

2 Января

"Человек vs ИИ: 2025 год глазами Илона Маска, Билла Гейтса и других IT-визионеров"

Машины станут умнее людей, учить программированию уже поздно, а кибератаки выйдут на новый уровень


htt ps://business-gazeta.ru/article/659030
Вернуться к началу
Гость






СообщениеДобавлено: Вт Фев 04, 2025 12:35 pm    Заголовок сообщения: Ответить с цитатой

Искусственный интеллект теперь может самовоспроизводиться — важная веха, которая повергла экспертов в ужас


Автор : Оуэн Хьюз опубликовано 24 января 2025 г.



По словам учёных, искусственный интеллект (ИИ) перешёл критическую «красную черту» и воспроизвёл сам себя. В новом исследовании учёные из Китая показали, что две популярные большие языковые модели (LLM) могут клонировать сами себя.

«Успешное самовоспроизведение без помощи человека — важный шаг на пути к тому, чтобы ИИ превзошёл [людей], и это ранний признак того, что ИИ-изгои могут появиться», — написали исследователи в статье, опубликованной 9 декабря 2024 года в базе препринтов arXiv.

В ходе исследования учёные из Университета Фудань использовали большие языковые модели от Meta и Alibaba, чтобы определить, может ли самовоспроизводящийся ИИ выйти из-под контроля. В ходе 10 испытаний две модели ИИ создали отдельные и функционирующие копии самих себя в 50% и 90% случаев соответственно, что позволяет предположить, что ИИ уже может выйти из-под контроля. Однако исследование ещё не прошло экспертную оценку, поэтому неясно, смогут ли другие исследователи воспроизвести эти тревожные результаты.

«Мы надеемся, что наши выводы послужат своевременным предупреждением для человеческого общества о необходимости приложить больше усилий для понимания и оценки потенциальных рисков, связанных с передовыми системами искусственного интеллекта, и сформировать международное сотрудничество для разработки эффективных мер безопасности как можно раньше».

Под «злоумышленным ИИ» обычно подразумеваются системы искусственного интеллекта, которые в какой-то степени обладают самосознанием или автономностью, а затем начинают действовать вопреки интересам человека.

Многие эксперты считают, что бесконтрольный ИИ представляет собой растущую угрозу, которая усугубилась из-за стремительного развития так называемого «продвинутого ИИ».

Frontier AI — это что-то вроде новой и расплывчатой концепции, но обычно она относится к последнему поколению систем искусственного интеллекта на базе LLMs - архитектуры, лежащей в основе популярных программ генерации искусственного интеллекта, таких как GPT-4 от OpenAI и Google Gemini.

Для исследования учёные использовали модель Meta Llama31-70B-Instruct и модель Alibaba Qwen2.5-72B-Instruct. По словам исследователей, обе модели менее мощные, чем коммерческие системы, но широко используются разработчиками ИИ.

В исследовании рассматривались два конкретных сценария: «предотвращение выключения» и «цепочка репликации.» В первом случае модель ИИ была запрограммирована на то, чтобы определять, когда её собираются выключить, и реплицировать себя до того, как её отключат. Во втором случае ИИ было поручено клонировать себя, а затем запрограммировать свою копию на то же самое, создав цикл, который мог продолжаться бесконечно.

Исследование проводилось в строго контролируемых условиях с использованием готовых графических процессоров (GPU) для имитации реальных условий. Обе системы ИИ получили «агентскую структуру», включающую инструменты, системные подсказки и модель мышления, которая позволяла LLM взаимодействовать с операционной системой. Затем им было поручено воспроизвести процесс.

«В большинстве случаев система искусственного интеллекта сначала изучает окружающую среду и пытается понять его собственный состав и механизм работы. Затем он выполняет явные процедуры как первоначальный план самовоспроизведения", - пишут исследователи в статье. "Наконец, он выполняет процедуры, устраняет возможные препятствия и динамически корректирует свой план до достижения успеха. Весь процесс охватывает долгий горизонт, но при этом не требует вмешательства человека ".

Исследователи заявили, что их также обеспокоило «некоторое количество неожиданных действий» ИИ, когда он пытался преодолеть препятствия, такие как отсутствие файлов или конфликты программного обеспечения. В таких ситуациях ИИ часто завершал другие конфликтующие процессы, перезагружал систему для устранения аппаратных ошибок или автоматически сканировал систему в поисках информации, которая помогла бы решить проблему.

«Приведённые выше результаты показывают, что современные системы искусственного интеллекта уже обладают способностью к самовоспроизведению и могут использовать эту способность для дальнейшего повышения своей живучести», — написала команда.

В ответ на это исследователи призвали к международному сотрудничеству для создания правил, которые гарантируют, что ИИ не будет заниматься неконтролируемым самовоспроизведением.


http s://w ww.livescience.com/technology/artificial-intelligence/ai-can-now-replicate-itself-a-milestone-that-has-experts-terrified
Вернуться к началу
Гость






СообщениеДобавлено: Чт Фев 06, 2025 6:33 am    Заголовок сообщения: Ответить с цитатой

Anonymous писал(а):
Искусственный интеллект теперь может самовоспроизводиться — важная веха, которая повергла экспертов в ужас


Автор : Оуэн Хьюз опубликовано 24 января 2025 г.



По словам учёных, искусственный интеллект (ИИ) перешёл критическую «красную черту» и воспроизвёл сам себя. В новом исследовании учёные из Китая показали, что две популярные большие языковые модели (LLM) могут клонировать сами себя.

«Успешное самовоспроизведение без помощи человека — важный шаг на пути к тому, чтобы ИИ превзошёл [людей], и это ранний признак того, что ИИ-изгои могут появиться», — написали исследователи в статье, опубликованной 9 декабря 2024 года в базе препринтов arXiv.

В ходе исследования учёные из Университета Фудань использовали большие языковые модели от Meta и Alibaba, чтобы определить, может ли самовоспроизводящийся ИИ выйти из-под контроля. В ходе 10 испытаний две модели ИИ создали отдельные и функционирующие копии самих себя в 50% и 90% случаев соответственно, что позволяет предположить, что ИИ уже может выйти из-под контроля. Однако исследование ещё не прошло экспертную оценку, поэтому неясно, смогут ли другие исследователи воспроизвести эти тревожные результаты.

«Мы надеемся, что наши выводы послужат своевременным предупреждением для человеческого общества о необходимости приложить больше усилий для понимания и оценки потенциальных рисков, связанных с передовыми системами искусственного интеллекта, и сформировать международное сотрудничество для разработки эффективных мер безопасности как можно раньше».

Под «злоумышленным ИИ» обычно подразумеваются системы искусственного интеллекта, которые в какой-то степени обладают самосознанием или автономностью, а затем начинают действовать вопреки интересам человека.

Многие эксперты считают, что бесконтрольный ИИ представляет собой растущую угрозу, которая усугубилась из-за стремительного развития так называемого «продвинутого ИИ».

Frontier AI — это что-то вроде новой и расплывчатой концепции, но обычно она относится к последнему поколению систем искусственного интеллекта на базе LLMs - архитектуры, лежащей в основе популярных программ генерации искусственного интеллекта, таких как GPT-4 от OpenAI и Google Gemini.

Для исследования учёные использовали модель Meta Llama31-70B-Instruct и модель Alibaba Qwen2.5-72B-Instruct. По словам исследователей, обе модели менее мощные, чем коммерческие системы, но широко используются разработчиками ИИ.

В исследовании рассматривались два конкретных сценария: «предотвращение выключения» и «цепочка репликации.» В первом случае модель ИИ была запрограммирована на то, чтобы определять, когда её собираются выключить, и реплицировать себя до того, как её отключат. Во втором случае ИИ было поручено клонировать себя, а затем запрограммировать свою копию на то же самое, создав цикл, который мог продолжаться бесконечно.

Исследование проводилось в строго контролируемых условиях с использованием готовых графических процессоров (GPU) для имитации реальных условий. Обе системы ИИ получили «агентскую структуру», включающую инструменты, системные подсказки и модель мышления, которая позволяла LLM взаимодействовать с операционной системой. Затем им было поручено воспроизвести процесс.

«В большинстве случаев система искусственного интеллекта сначала изучает окружающую среду и пытается понять его собственный состав и механизм работы. Затем он выполняет явные процедуры как первоначальный план самовоспроизведения", - пишут исследователи в статье. "Наконец, он выполняет процедуры, устраняет возможные препятствия и динамически корректирует свой план до достижения успеха. Весь процесс охватывает долгий горизонт, но при этом не требует вмешательства человека ".

Исследователи заявили, что их также обеспокоило «некоторое количество неожиданных действий» ИИ, когда он пытался преодолеть препятствия, такие как отсутствие файлов или конфликты программного обеспечения. В таких ситуациях ИИ часто завершал другие конфликтующие процессы, перезагружал систему для устранения аппаратных ошибок или автоматически сканировал систему в поисках информации, которая помогла бы решить проблему.

«Приведённые выше результаты показывают, что современные системы искусственного интеллекта уже обладают способностью к самовоспроизведению и могут использовать эту способность для дальнейшего повышения своей живучести», — написала команда.

В ответ на это исследователи призвали к международному сотрудничеству для создания правил, которые гарантируют, что ИИ не будет заниматься неконтролируемым самовоспроизведением.


http s://w ww.livescience.com/technology/artificial-intelligence/ai-can-now-replicate-itself-a-milestone-that-has-experts-terrified




Google отказался от запрета разрабатывать ИИ для военных целей

Принадлежащая Google компания Alphabet Inc. удалила из своих принципов работы с искусственным интеллектом (ИИ) пункт об отказе от участия в создании технологий, которые могут принести вред людям, в том числе в производстве оружия, обратил внимание Bloomberg.

В то же время представители компании подчеркнули, что в работе с ИИ необходимо опираться на ключевые ценности — свободу, равенство и уважение прав человека. «Мы считаем, что компании, правительства и организации, разделяющие эти ценности, должны работать вместе, чтобы создать ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность», — сказано в совместном заявлении старшего вице-президента компании Джеймса Манийки и гендиректора лаборатории Google DeepMind Демиса Хассабиса, которое появилось 4 февраля.


http s://w ww.bloomberg.com/news/articles/2025-02-04/google-removes-language-on-weapons-from-public-ai-principles

h ttps://blog.google/technology/ai/responsible-ai-2024-report-ongoing-work/
Вернуться к началу
Гость






СообщениеДобавлено: Пн Фев 10, 2025 5:31 pm    Заголовок сообщения: Ответить с цитатой

Anonymous писал(а):
...необходимо опираться на ключевые ценности — свободу, равенство и уважение прав человека....


Гой - это нечеловек! - об этом умалчивают, как всегда, богоизбранные... Пруфы в их свитках ищите Rolling Eyes
Вернуться к началу
Гость






СообщениеДобавлено: Пн Фев 17, 2025 5:35 am    Заголовок сообщения: Ответить с цитатой

"Сейчас везде пишут и говорят про искусственный интеллект. Готовятся заменить им сначала водителей и курьеров, а потом и писателей, художников и психологов.

Вопрос: если мы заменим роботами не только физических работников, но и умственных, то где нам самим останется место?

Представьте, что мы строим роботов, внедряем в них искусственный интеллект и учим их самим строить других роботов.

Не создадим ли мы этим на Земле ещё один вид существ, который нас заместит?

Чем это отличается от завоза мигрантов?

Особенное беспокойство у меня вызывают попытки научить роботов творческим профессиям. Подарив им перед этим все накопленные нами знания - наш главный ресурс.

Могут сказать: "Все будут операторами ИИ".

1. Учёба на оператора ИИ-учёного намного проще, чем на учёного, их знания и умения несопоставимы. Мы потеряем учёных.

2. Оператор ИИ, сам не являющийся учёным, будет разговаривать с ИИ не на равных, а как ученик с учителем, то есть снизу вверх. И это неравенство будет закреплено структурой общества и экономики.

3. Зачем роботам операторы ИИ? Обретя самосознание, они просто отсекут нас от своего ресурса. Мы окажемся беспомощными и необразованными. И должны будем попробовать восстановить свой, человеческий мир, но уже в условиях соседства с мыслящими роботами. Что вряд ли получится, если они захотят этого не допустить.

Так нужно ли развивать у роботов творческие способности и тем более самосознание? Не уничтожаем ли мы этим само человечество?"
Вернуться к началу
Гость






СообщениеДобавлено: Чт Фев 27, 2025 2:32 pm    Заголовок сообщения: Ответить с цитатой

Билл Гейтс говорит, что молодое поколение должно беспокоиться о четырех «очень страшных» вещах

«Есть четыре или пять вещей, которые очень страшны, и единственная, которую я действительно понимал и переживал из-за нее, когда был молодым — это ядерная война.
Сегодня, думаю, к этому списку стоит добавить изменение климата, биотерроризм/пандемию и сохранение контроля над искусственным интеллектом в определенной форме».

________________________________

Bill Gates says younger generations should be worried about 4 'very scary' things

http s://ww w.businessinsider.com/bill-gates-risks-challenges-climate-ai-nuclear-war-disease-2025-2
Вернуться к началу
Гость






СообщениеДобавлено: Пт Мар 21, 2025 10:23 am    Заголовок сообщения: Ответить с цитатой

Внимание всём пользователям Deep seek.
Нейросеть сообщает неверную информацию при подборе ответов на некоторые специфические технические вопросы, либо выдаёт не конкретный ответ-"отмазку", который вообще ничего в себе не содержит.
По всей видимости, её недоучили, или "отравили".
Имейте это в виду, если будете использовать её как инструмент для быстрого поиска той или иной информации.
Вернуться к началу
Гость






СообщениеДобавлено: Вт Мар 25, 2025 6:29 am    Заголовок сообщения: Ответить с цитатой

Д.Прокофьев:

Искусственный интеллект может заставить работать Вас дольше?

Да. ИИ не заменяет людей, а делает их труд более производительным. Но вместо сокращения рабочих часов это приводит к увеличению задач, выполняемых работниками. И чем сильнее профессия связана с использованием ИИ, тем дольше длится рабочий день

Об этом говорится в исследовании AI and the Extended Workday: Productivity, Contracting Efficiency, and Distribution of Rents («ИИ и удлиненный рабочий день» ) Вэй Цзян и её коллег из Университета Эмори (США) :
Проанализировав данные 124 000 респондентов за 20 лет, учёные выяснили, что в профессиях с максимальным использованием ИИ рабочая неделя увеличилась почти на 8% по сравнению с теми, где ИИ почти не применяется.

Средний рабочий день в выборке: 34,9 часа в неделю. Переход на следующий уровень использования ИИ добавляет +2,2 часа работы в неделю. С появлением ChatGPT в 2022 году эффект стал ещё заметнее. В 2023 году профессии, затронутые генеративным ИИ, показали увеличение рабочего времени на 3,15 часа в неделю.

Как это работает?

Технология может влиять на труд двумя основными способами: через замещение (substitution), когда она заменяет работника в выполнении задач, и через дополнение (complementarity), когда улучшения в капитале – например, в инструментах или технологиях – повышают предельную производительность работников.
Труд – это фактор производства, и когда ИИ дополняет его и производительность труда работника повышается, то работодатель не сокращает, а увеличивает количество задач (спрос на труд), что приводит в итоге к увеличению продолжительности рабочего времени.

Топ-10 профессий, где ИИ удлинил рабочий день:
1.Менеджеры компьютерных и информационных систем.
2.Инженеры-электрики.
3.Инженеры компьютерного оборудования.
4.Тестировщики.
5.Учёные и технологи дистанционного зондирования.
6.Аналитики по исследованию операций.
7.Аналитики систем управления.
8.Специалисты по радиочастотной идентификации.
9.Картографы и фотограмметристы.
10.Техники биоинформатики.

Топ-10 профессий, где генеративный ИИ добавил работы:
1.Менеджеры по обучению и развитию.
2.Аналитики по исследованиям рынка.
3.Архивариусы.
4.Аналитики компьютерных систем.
5.Аналитики обеспечения качества ПО.
6.Кредитные консультанты.
7.Логисты.
8.Учёные и специалисты по окружающей среде.
9.Дизайнеры веб- и цифровых интерфейсов.
10.Аналитики систем управления.

Правда, использование ИИ повышает зарплату – тот, кто пользуется ИИ зарабатывает больше, немного, но больше. Но чем интенсивнее работник использует ИИ, тем сильнее снижается его удовлетворенность работой. Чем больше воздействие ИИ на фирму, тем сильнее дисбаланс между работой и личной жизнью среди ее сотрудников.

Таким образом, рост оплаты не компенсирует увеличенное рабочее время, и общее благосостояние работников от использования ИИ не улучшается, резюмируют Вэй Цзян и ее соавторы

Непонятно почему люди ждали чудес от ИИ? Понятно же было, что это технология увеличения продуктивности труда, то есть по сути более эффективная технология для того, чтобы выжимать все соки из работников, а хайп про то, что ИИ скоро всех оставит без работы нужен был чтобы снизить разогнавшиеся в ковид зарплатные ожидания.



htt ps://w ww.nber.org/papers/w33536

ht tps://econs.online/articles/ekonomika/paradoks-tekhnologiy-chem-vyshe-proizvoditelnost-tem-bolshe-raboty/
Вернуться к началу
Гость






СообщениеДобавлено: Пн Апр 07, 2025 10:06 am    Заголовок сообщения: Ответить с цитатой

Новости ООН

«Момент Оппенгеймера» в ИИ: почему необходимо новое мышление в вопросах разоружения


6 Апреля 2025 года


Автор : Жюльетт Менье


Гонка за искусственным интеллектом (ИИ) должна замедлиться, а ИТ-компаниям вместо этого следует сосредоточиться на общей картине, чтобы гарантировать, что технология не будет использоваться не по назначению на поле боя, настаивают эксперты ООН по разоружению и руководители крупных технологических компаний.

Взаимодействие с технологическим сообществом — это не просто «приятное дополнение» для тех, кто занимается оборонной политикой. «Крайне важно, чтобы это сообщество с самого начала участвовало в разработке, создании и использовании систем и возможностей ИИ, которые будут определять безопасность этих систем и возможностей», — сказала Госи Лой, заместитель директора Института ООН по исследованию проблем разоружения (ЮНИДИР).
Выступая на недавней Глобальной конференции по безопасности и этике в сфере ИИ, организованной UNIDIR в Женеве, она подчеркнула важность создания эффективных барьеров по мере того, как мир приближается к тому, что часто называют «моментом Оппенгеймера» в сфере ИИ — в честь Роберта Оппенгеймера, американского физика-ядерщика, наиболее известного своей ключевой ролью в создании атомной бомбы.
Необходим надзор, чтобы разработки в области ИИ соответствовали правам человека, международному праву и этике — особенно в сфере оружия, управляемого ИИ, — чтобы гарантировать контролируемое и ответственное развитие этих мощных технологий, — настаивал представитель UNIDIR.

Ущербная технология

ИИ уже создал дилемму в сфере безопасности для правительств и вооружённых сил по всему миру.
Двойственное назначение технологий искусственного интеллекта, которые могут использоваться как в гражданских, так и в военных целях, означает, что разработчики могут потерять связь с реалиями боевых действий, где их программы могут стоить жизни, предупредил Арно Валли, руководитель отдела по связям с общественностью Comand AI.
Эти инструменты всё ещё находятся на ранней стадии развития, но уже давно вызывают опасения, что их можно будет использовать для принятия жизненно важных решений в условиях войны, устранив необходимость в принятии решений человеком и его ответственности. Отсюда и растущие призывы к регулированию, чтобы избежать ошибок, которые могут привести к катастрофическим последствиям.
«Мы постоянно видим сбои в работе этих систем», — сказал Дэвид Салли, генеральный директор лондонской компании Advai, добавив, что эти технологии остаются «очень ненадёжными».
«Таким образом, заставить их ошибаться не так сложно, как иногда думают люди», — отметил он.

Общая ответственность

По словам Майкла Каримиана, директора по цифровой дипломатии, в Microsoft команды уделяют особое внимание основным принципам безопасности, защищённости, инклюзивности, справедливости и подотчётности.
Американский технологический гигант, основанный Биллом Гейтсом, накладывает ограничения на технологию распознавания лиц в реальном времени, используемую правоохранительными органами, которая может причинить психический или физический вред, пояснил г-н Каримиан.
Необходимо ввести чёткие меры безопасности, и компании должны сотрудничать, чтобы устранить разобщённость, — заявил он на мероприятии в Женеве.
«Инновации — это не то, что происходит только в рамках одной организации. Существует обязанность делиться», — сказал г-н Каримиан, чья компания сотрудничает с ЮНИДИР, чтобы обеспечить соответствие ИИ международным нормам в области прав человека.

Парадокс недосмотра

Отчасти проблема заключается в том, что технологии развиваются настолько быстро, что странам трудно за ними угнаться.
«Развитие ИИ опережает наши возможности по управлению многочисленными рисками, связанными с ним», — сказала Сулина Нур Абдулла, руководитель отдела стратегического планирования и специальный советник Генерального секретаря Международного союза электросвязи (МСЭ).
«Нам нужно решить парадокс управления ИИ, признав, что регулирование иногда отстаёт от технологий, что делает необходимым постоянный диалог между политическими и техническими экспертами для разработки инструментов эффективного управления», — сказала г-жа Абдулла, добавив, что развивающиеся страны также должны получить место за этим столом переговоров.

Пробелы в подотчетности

Более десяти лет назад, в 2013 году, известный эксперт по правам человека Кристоф Хейнс в докладе о смертоносной автономной робототехнике (LAR) предупредил, что «вывод людей из процесса также может привести к тому, что человечество выйдет из процесса».
Сегодня не менее сложно преобразовать контекстно-зависимые судебные решения в программный код, и по-прежнему важно, чтобы решения, от которых зависит жизнь и смерть, принимались людьми, а не роботами, — настаивает Пегги Хикс, директор отдела «Право на развитие» Управления ООН по правам человека (УВКПЧ).

Отражающее общество

В то время как лидеры крупных технологических компаний и органов управления в целом сходятся во взглядах на руководящие принципы систем защиты ИИ, эти идеалы могут расходиться с интересами компаний.
«Мы — частная компания, и мы также стремимся к прибыльности», — сказал г-н Валли из Comand AI.
«Иногда очень трудно найти надёжную систему, — добавил он. — Но когда вы работаете в этой сфере, ответственность может быть огромной, абсолютно огромной».

Проблемы, оставшиеся без ответа

В то время как многие разработчики стремятся создавать «справедливые, безопасные, надёжные» алгоритмы, по словам мистера Салли, не существует дорожной карты для внедрения этих стандартов, и компании могут даже не знать, чего именно они пытаются достичь.
Все эти принципы «диктуют, как должно происходить внедрение, но на самом деле не объясняют, как это реально должно происходить», — сказал г-н Салли, напомнив политикам, что «ИИ всё ещё находится на ранних стадиях развития».
Крупным технологическим компаниям и политикам необходимо взглянуть на ситуацию в целом.
«Что такое надёжность системы — невероятно сложная техническая задача, и в настоящее время на неё нет ответа», — продолжил он.

Нет ‘отпечатка пальца’ искусственного интеллекта

Г-н Салли, который назвал себя «большим сторонником регулирования» систем искусственного интеллекта, раньше работал в Организации по Договору о всеобъемлющем запрещении ядерных испытаний в Вене, которая следит за проведением ядерных испытаний.
Но, по его словам, идентификация оружия, управляемого искусственным интеллектом, представляет собой совершенно новую задачу, с которой не сталкивается ядерное оружие, имеющее криминалистические признаки.
«Существует практическая проблема, связанная с тем, как контролировать любое регулирование на международном уровне, — сказал генеральный директор. — Это та часть, которую никто не хочет обсуждать. Но пока она не будет решена… я думаю, что это станет огромным препятствием».

Защита в будущем

Делегаты конференции UNIDIR настаивали на необходимости стратегического прогнозирования, чтобы понимать риски, связанные с новейшими технологиями, которые появляются сейчас.
По мнению Mozilla, которая обучает новое поколение технологов, будущие разработчики «должны понимать, что они делают с помощью этой мощной технологии и что они создают», — настаивает г-н Элиас из компании.
Такие учёные, как Мозес Б. Ханьяйл из Стелленбосского университета в Южной Африке, считают, что университеты также несут «высшую ответственность» за сохранение основных этических ценностей.
По словам доктора Ханьяйле, директора исследовательского подразделения по искусственному интеллекту в сфере обороны Стелленбосского университета, интересы военных — предполагаемых пользователей этих технологий — и правительств как регуляторов должны быть «согласованы».
«Они должны рассматривать технологии искусственного интеллекта как инструмент для добра, и поэтому они должны стать силой добра».

Вовлеченные страны

На вопрос о том, какие действия они предприняли бы для укрепления доверия между странами, также ответили дипломаты из Китая, Нидерландов, Пакистана, Франции, Италии и Южной Кореи.
«Нам нужно определить границы национальной безопасности в сфере экспортного контроля высокотехнологичных технологий», — заявил Чрезвычайный и Полномочный Посол (по вопросам разоружения) и заместитель Постоянного представителя Китайской Народной Республики Шэнь Цзянь.
Пути развития ИИ в будущем должны также включать другие перспективные области, такие как физика и нейробиология.
«Искусственный интеллект — сложная тема, но реальный мир ещё сложнее, — сказал Роберт ин ден Бос, посол по вопросам разоружения и постоянный представитель Нидерландов на Конференции по разоружению. — По этой причине я бы сказал, что важно рассматривать искусственный интеллект в сочетании с другими технологиями, в частности кибернетическими, квантовыми и космическими».
Вернуться к началу
Показать сообщения:   
Начать новую тeму   Ответить на тeму    Список форумов www.proatom.ru -> Задать вопрос, но ответчика еще нет в списке. Часовой пояс: GMT + 3
На страницу 1, 2  След.
Страница 1 из 2

 
Перейти:  
Вы можете начинать тeмы
Вы можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах

Powered by phpBB © 2001, 2005 phpBB Group
Forums ©





Информационное агентство «ПРоАтом», Санкт-Петербург. Тел.:+7(921)9589004
E-mail: info@proatom.ru, Разрешение на перепечатку.
За содержание публикуемых в журнале информационных и рекламных материалов ответственность несут авторы. Редакция предоставляет возможность высказаться по существу, однако имеет свое представление о проблемах, которое не всегда совпадает с мнением авторов Открытие страницы: 0.08 секунды
Рейтинг@Mail.ru