Можно ли научить человека пониманию ?
Создана: 17 Мая 2023 Срд 23:07:02.
Раздел: "Мнение оппозиции"
Сообщений в теме: 217, просмотров: 44241
-
Дженсен Хуанг: через 5 лет появится ИИ, превосходящий человека на 8%
Есть опасения, что как только AGI достигнет определенного уровня автономии и возможностей, его станет невозможно сдерживать или контролировать, что приведет к сценариям, в которых действия ИИ невозможно будет предсказать или обратить вспять.
Также Хуанг обсудил проблему галлюцинаций ИИ, когда системы выдают правдоподобные, но неверные ответы. Он предложил ввести обязательную проверку информации перед формированием ответа. Такой метод, названный «генерацией с расширенным поиском» (retrieval-augmented generation), предполагает сравнение информации с известными фактами и источниками правильных данных.
Подход Хуанга подразумевает, что в критически важных случаях, например, при предоставлении медицинских советов, ИИ должен опираться на несколько источников или признать свою неспособность дать точный ответ. Это отражает стремление к более ответственному и безопасному развитию технологий ИИ.
Подробнее: [внешняя ссылка] -
-
GPT-5, следующая сверхвысокопроизводительная модель от OpenAI, может появиться уже этим летом
GPT-5, долгожданная следующая большая языковая модель (LLM) от OpenAI, может быть запущена уже этим летом. Сообщается, что компания уже провела демонстрацию потенциальным инвесторам, которые заявили, что были впечатлены производительностью инструмента. Он не только будет лучше своего предшественника, GPT-4, но и предложит новые функциональные возможности.
В последние несколько месяцев участились жалобы на очевидную деградацию GPT-4, новейшего LLM от OpenAI, на котором уже год работает ChatGPT. Хотя изначально эта модель считалась одной из самых производительных на рынке, в последнее время пользователи отмечают значительное снижение качества, особенно когда речь идет о компьютерном программировании. РЕКЛАМА
Среди постоянных жалоб — непригодные для использования фрагменты кода, смена языка без видимых причин и слишком большое время задержки. Ситуация становится еще более проблематичной, если учесть, что за инструмент нужно платить. Сам Сэм Альтман, генеральный директор OpenAI, признал в подкасте Лекса Фридмана, что "GPT-4 - это немного дрянь", а затем добавил: "Я ожидаю, что разница между версиями 4 и 5 будет такой же большой, как между версиями 3 и 4". Компания надеется, что ее следующая модель снимет разочарование пользователей.
Новые возможности
Группа инвесторов получила возможность предварительно ознакомиться с разрабатываемой моделью OpenAI. По словам одного из них, он был впечатлен, заявив, что инструмент "действительно хорош и значительно лучше" своего предшественника, сообщает Business Insider. Другие сообщили, что в новой модели появились невиданные ранее функции, такие как возможность создания базовых агентов ИИ для автономного выполнения задач.
Альтман также не стал уточнять, чем именно будет отличаться модель, дав понять, что технический аспект будет решающим в определении конечного продукта. Более того, по словам источников Business Insider, процесс формирования модели еще не завершен. Для этого компания планирует подвергнуть ее целой серии испытаний с помощью "красной команды". Под этим термином понимается группа сотрудников и независимых консультантов, задача которых — изучить возможности инструмента до его официального запуска.
В частности, группа, специализирующаяся на компьютерных взломах, будет имитировать попытки вторжения, чтобы выявить недостатки модели. Это поможет определить, где необходимо улучшить защиту. Несмотря на то, что релиз может состояться уже летом, дата запуска может быть перенесена, если "красная команда" столкнется с проблемами во время тестирования. Обычно этот процесс занимает несколько месяцев, а то и больше года, если потребуются корректировки.
[внешняя ссылка] -
Большинство ведущих специалистов в области ИИ в мире — китайцы
США сохраняет лидерство в области искусственного интеллекта, благодаря способностям чат-ботов, но значительная часть этой работы была проделана исследователями, получившими образование в Китае. Китайцы составляют 38% ведущих исследователей искусственного интеллекта, работающих в США, а американцы — 37%. Тремя годами ранее выходцы из Китая составляли 27% лучших специалистов, работающих в Америке, по сравнению с 31% граждан США. «Эти данные показывают, насколько американские исследования искусственного интеллекта зависят от китайских учёных. США — мировой лидер по разработкам в области ИИ, во многом благодаря тому, что мы привлекаем и удерживаем таланты со всего мира, особенно из Китая», —говорит сотрудник Фонда Карнеги за международный мир, изучающий китайский искусственный интеллект, Мэтт Шихан.
[внешняя ссылка] -
Президент выступил на пленарной сессии Боаоского азиатского форума
Коротко о том, что сказал Касым-Жомарт Токаев👇
▪Казахстан заинтересован в сотрудничестве с ведущими азиатскими технологическими гигантами для совместных инновационных IТ-проектов.
▪Казахстан поддерживает "Глобальную инициативу по управлению искусственным интеллектом", выдвинутую Китаем. -
Microsoft и OpenAI строят суперкомпьютер за 100 миллиардов долларов
🚀 Microsoft разрабатывает “Stargate” - суперкомпьютер стоимостью 100 миллиардов долларов для нового поколения ИИ от OpenAI.
🌐 “Stargate” станет одним из крупнейших центров обработки данных, требующий сотен гектаров земли и до 5 гигаватт энергии.
⏳ Запуск проекта “Stargate” ожидается к 2028 году, что обещает революцию в области искусственного интеллекта.
Подробнее: [внешняя ссылка] -
Цукерберг бросил вызов ChatGPT — вышла новая языковая модель Llama 3
Meta (организация признана экстремистской и запрещена в РФ) представила новую языковую модель Llama 3, которая обещает стать конкурентом GPT-4 Turbo. Она представлена в двух версиях: Llama 3 8B и Llama 3 70B, которые имеют 8 и 70 миллиардов параметров соответственно. Они значительно превосходят предыдущее поколение MML от Марка Цукерберга по нескольким техническим характеристикам и тестам, включая MMLU, ARC, DROP и другие. Эксперты говорят, что это лучшая модель с открытым исходным кодом на мировом рынке.
Llama 3 интегрирована в поисковые строки основных приложений Meta, таких как Facebook (запрещен в РФ), Messenger, Instagram (запрещен в РФ) и WhatsApp, а также используется на отдельном сайте для чат-бота meta.ai. Обе ее версии обладают улучшенными способностями в обучении, генерации кода и математических задачах. Llama 3 8B показывает лучшие результаты по сравнению с аналогичными моделями в тестах, таких как GPQA, HumanEval и GSM-8K.
В дополнение к техническим улучшениям, Meta внедрила новые функции в ИИ, включая анимацию изображений и улучшенное размещение текста на картинках. ИИ также может искать информацию в Google и Bing по запросу пользователя. Модели, созданные на основе данных из общедоступных источников, используют 15 триллионов токенов и 750 миллиардов слов, обучены на 30 различных языках и включают синтетические данные.
Meta усилила меры безопасности в новых моделях Llama 3, интегрировав протоколы, такие как Llama Guard и CybersecEval, и инструмент Code Shield для анализа безопасности кода. Эти меры направлены на предотвращение неправомерного использования ИИ.
Особое внимание компания уделяет чат-боту Meta.ai, который работает на базе модели Llama 3. Запущенный на отдельном веб-сайте, этот чат-бот пока может общаться только на английском языке. Он доступен не только для пользователей социальных сетей Meta, но и для широкой публики.
Компания также разрабатывает версию Llama 3 с 400 миллиардами параметров, которая будет поддерживать больше языков и типов данных, включая обработку изображений. Эта мультимодальная модель предназначена для улучшения контекстуального понимания и расширения возможностей в рассуждениях и написании кода. Meta надеется, что эти усовершенствования помогут превзойти конкурентные продукты, такие как ChatGPT от OpenAI и Gemini от Google.
[внешняя ссылка] -
Группа ученых заявила о наличии сознания у рептилий, рыб и насекомых
Вороны, шимпанзе, слоны — список животных, которых подозревают в наличии сознания, постоянно растет и не ограничивается позвоночными. В него уже попали и осьминоги, и мухи. Коалиция исследователей призывает переосмыслить отношение между человеком и животными, которые хотя бы в той или иной степени обладают сознанием. И выделить средства на более детальные исследования.
Однозначного определения сознания не существует, так что авторы декларации выбрали подходящее — это способность к ощущениям, субъективному опыту, сообщает Nature. Для животного этим опытом будут запахи, вкус, звуки мира, а также чувство страха, удовольствия или боли. Фактически, все то, что составляет жизнь животного. При этом от него не требуется осознавать эти ощущения, достаточно только испытывать.
Для определения наличия способности к ощущениям с животными проводят различные эксперименты, например, классический зеркальный тест, в котором они могут узнать свое отражение в зеркале. Некоторые виды, например, шимпанзе, азиатские слоны и губаны обыкновенные, успешно прошли его. Другой эксперимент показал, что осьминоги в состоянии активно избегать болевых ощущений. А мозг плодовых мушек сохраняет активность во время сна, что можно счесть признаком сновидений, которые также интерпретируются как наличие сознания.
[внешняя ссылка] -
Meta готовит смарт-браслет для считывания сигналов мозга
Нейронные сигналы будут интерпретироваться за счет электромиографии. Решение может быть интегрировано с умными очками дополненной реальности Meta Ray-Ban. Глава компании полагает, что эти футуристические устройства станут доступны широкому кругу потребителей в ближайшие несколько лет.
Используя искусственный интеллект, эти гаджеты смогут подстраиваться под индивидуальные особенности каждого пользователя. По словам Цукерберга, с помощью нейробраслета можно будет управлять устройствами, писать тексты и выполнять другие задачи, просто силой мысли.
[внешняя ссылка] -
-
-
ИИ-стартап Synthesia создает эмоциональные аватары, которые слишком похожи на людей
Стартап Synthesia, который поддерживает NVIDIA, представил четвёртое поколение Expressive Avatars, которые функционируют на базе модели EXPRESS-1. Это динамичные цифровые личности, которые очень похожи на людей: они правдоподобно имитируют интонации и мимику. Предназначены они для использования в производстве видео и уже угрожают оставить актеров рекламы без работы. Кроме того, стартап признает, что злоумышленники могут производить с ними дипфейки.
В предыдущих версиях продукта аватары разговаривали без каких-либо эмоций, однако перед нынешним релизом стартап тщательно поработал над их динамичностью. По словам компании, теперь аватары используют правильный тон голоса, язык тела и движения губ, как живые актёры.
Кроме того, новая модель позволяет системе генерировать результаты в реальном времени: программа воспринимает текст, анализирует его настроение и сразу же выдает нужную эмоцию и выражение лица. Ранее такие аватары полагались на заранее написанный сценарий, из-за чего результаты могли быть неестественными. Synthesia утверждает, что модели достаточно, чтобы создать полностью уникальный видеоролик, а готовый результат не придется исправлять в других программах. Пользователи также могут заново сгенерировать видеоряд, изменив запрос.
[внешняя ссылка]