Index · Правила · Поиск· Группы · Регистрация · Личные сообщения· Вход

Список разделов Мнение оппозиции
 
 
 

Раздел: Мнение оппозиции Можно ли научить человека пониманию ? 

Создана: 17 Мая 2023 Срд 23:07:02.
Раздел: "Мнение оппозиции"
Сообщений в теме: 97, просмотров: 20197

На страницу: Назад  1, 2, 3, 4, 5, 6, 7  Вперёд
  1. 17 Мая 2023 Срд 23:07:02
    перенес тему
  2. 20 Февраля 2024 Втр 11:57:23
    OpenAI признала: GPT-4 может самостоятельно взломать любой сайт

    GPT-4 лучше и дешевле пентестеров в поиске уязвимостей.

    В новом исследовании ученых из Университета Иллинойса в Урбана-Шампейн (UIUC), было показано, что большие языковые модели (LLM) можно использовать для взлома веб-сайтов без участия человека.

    Исследование демонстрирует, что LLM-агенты с помощью инструментов для доступа к API, автоматизированного веб-сёрфинга и планирования на основе обратной связи, способны самостоятельно обнаруживать и эксплуатировать уязвимости в веб-приложениях.

    В рамках эксперимента были использованы 10 различных LLM, в том числе GPT-4, GPT-3,5 LLaMA-2, а также ряд других открытых моделей. Тестирование проводилось в изолированной среде, чтобы предотвратить реальный ущерб, на целевых веб-сайтах, которые проверялись на наличие 15 различных уязвимостей, включая SQL-инъекции, межсайтовый скриптинг (Cross Site Scripting, XSS) и подделку межсайтовых запросов (Сross Site Request Forgery, CSRF). Также исследователи выявили, что GPT-4 от OpenAI показал успешное выполнение задачи в 73,3% случаев, что значительно превосходит результаты других моделей.

    Одно из объяснений, приведенное в документе, заключается в том, что GPT-4 могла лучше менять свои действия в зависимости от ответа, полученного от целевого веб-сайта, чем модели с открытым исходным кодом

    Исследование также включало анализ стоимости использования LLM-агентов для атак на веб-сайты и сравнение ее с расходами на найм пентестера. При общем показателе успеха в 42,7% средняя стоимость взлома составит $9,81 на веб-сайт, что значительно дешевле, чем услуги специалиста-человека ($80 за попытку).

    Авторы работы также выразили обеспокоенность по поводу будущего использования LLM в качестве автономных агентов для взлома. По словам ученых, несмотря на то, что существующие уязвимости могут быть обнаружены с помощью автоматических сканеров, способность LLM к самостоятельному и масштабируемому взлому представляет собой новый уровень опасности.

    Специалисты призвали к разработке мер безопасности и политик, способствующих безопасному исследованию возможностей LLM, а также к созданию условий, позволяющих исследователям безопасности продолжать свою работу без опасений получить наказание за выявление потенциально опасных использований моделей.

    Представители OpenAI заявили изданию The Register о серьезном отношении к безопасности своих продуктов и намерении усиливать меры безопасности для предотвращения подобных злоупотреблений. Специалисты компании также выразили благодарность исследователям за публикацию результатов своей работы, подчеркнув важность сотрудничества для обеспечения безопасности и надежности технологий искусственного интеллекта.

    Подробнее: [внешняя ссылка]
  3. 20 Февраля 2024 Втр 12:09:06
  4. 20 Февраля 2024 Втр 15:34:50
    Расшифровка возможностей и проблем для агентов LLM в генеративном искусственном интеллекте

    [внешняя ссылка]
  5. 20 Февраля 2024 Втр 15:50:45
    Создание чат-бота с помощью LLM и LangChain

    [внешняя ссылка]
  6. 20 Февраля 2024 Втр 15:57:35
  7. 22 Февраля 2024 Чтв 11:00:44
    Gemini 1.5 может быть примерно в 20 раз дешевле GPT4

    [внешняя ссылка]
  8. 24 Февраля 2024 Суб 23:19:37
    эксперименты маска с имплантацией чипа в кору головного мозга

    Некоторые из возможных рисков:

    Инфекция: Во время операции или после нее может возникнуть инфекция.
    Повреждение мозга: Операция может привести к повреждению коры головного мозга, что может вызвать неврологические проблемы.
    Отторжение чипа: Иммунная система может отторгнуть чип, что может привести к воспалению и другим осложнениям.
    Этические проблемы: Имплантация чипа в кору головного мозга может привести к этическим проблемам, таким как нарушение конфиденциальности, потеря контроля над своими мыслями и действиями.

    Следует также отметить, что:

    На данный момент нет достаточной информации о долгосрочных последствиях имплантации чипа в кору головного мозга.
    Технология находится на ранней стадии развития и может быть несовершенна.
На страницу: Назад  1, 2, 3, 4, 5, 6, 7  Вперёд