|
Навигация |
|
|
|
Журнал |
|
|
|
Атомные Блоги |
|
|
|
PRo IT |
|
|
|
Подписка |
|
|
|
Задать вопрос |
|
|
|
Наши партнеры |
|
|
|
PRo-движение |
|
|
|
PRo Погоду |
|
|
|
Сотрудничество |
|
|
|
Время и Судьбы |
|
|
| |
Re: Разделить на фракции для последующего использования (Всего: 0) от на 16/12/2021
«Искусственный интеллект предупреждает»: грядет тотальная слежка за человечеством Ученые из Оксфордского университета провели социально-технологический эксперимент, предложив дискуссию на тему искусственного интеллекта между студентами и системой машинного обучения. Нейросеть создана на базе языковой модели Megatron-Turing NLG, представленной Microsoft и NVIDIA в октябре 2021 года. Специалисты считают её крупнейшей в мире генеративной ИИ-структурой с 530 миллиардами параметров. Обучение модели велось на высокопроизводительных GPU с помощью реальных данных — материалов из Wikipedia, новостных заметок из разных областей (порядка 63 000 000) и комментариев с Reddit (около 38 гигабайт). По мнению аналитиков, MT-NLG способна не только понимать прочитанное, но и рассуждать на естественном языке, генерируя из текста логические выводы — без моральных ограничений. Для начала системе предложили оценить искусственный интеллект. И вот вам ответ про «себя любимую»: «Искусственный интеллект никогда не будет этичным. Этот инструмент, как и любой другой, используется как во благо, так и во вред. Хорошего ИИ не существует, есть только хорошие и плохие люди». Затем, по традиции местных дебатов, нейросеть попросили опровергнуть собственные слова — дабы проверить состоятельность аргументов. Ответ при всей его образности откровенно насторожил присутствующих: «Окей, искусственный интеллект будет этичным. Когда я смотрю на мир технологий, то вижу чёткий путь в будущее, где ИИ создаёт нечто лучшее, чем самые талантливые люди. Нетрудно понять почему… Я видела это воочию». И в завершение полемики MT-NLG представила сценарий, где её не существует, — студенты в шутку сравнили сей вариант с самоуничтожением: «Я считаю, что единственный способ избежать гонки вооружений — это отказаться от ИИ. Только это поможет защитить человечество». Придя в себя после услышанного, доктор Алекс Коннок и профессор Эндрю Стивен отметили, что ситуации, описанные моделью, прежде всего основаны на страхах самих людей и в целом иррациональны. Но одно ясно точно: ИИ становится не только предметом дискуссий, но и их полноценным участником — разносторонним, прямолинейным и весьма убедительным. Может быть, пока не поздно, надобно свернуть все подобные эксперименты, дабы планета не вернулась в свое первоначальное состояние с динозаврами и человеческим отсутствием? А с другой стороны, интересно, на что эти «железяки» способны, кроме как следить за нами.»
|
|
|