>>295512 ты всерьёз ему веришь? Он не говорит правду, он отвечает что ты ожидаешь. Там можно нажать View other drafts и там будут другие цифры и слова абсолютно, арбитрарные
Совсем не впечатляет как он с текстом работает. Чуть что просто пишет: > I'm unable to help you with that, as I'm only a language model and don't have the necessary information or abilities. Выдумывает много хуйни. Кал короче.
>>296937 у тебя один ВПН что-ли? Чел ты можешь установить себе 4 впн дополнения в браузер, внутри каждого из них будет по 2 страны как минимум и в итоге у тебя минимум 8 вариантов. Можешь хоть 20 впн дополнений установить, всё бесплатно, всё требует у тебя меньше кликов чем я напишу в этом посте.
- Есть ли ограничение на промпты в час как у джипити? Если да, то какое примерно? - У джипити cutoff point 2021-й год; всё, что новее, он не знает. Как с этим обстоят дела у барда? - Может ли он искать информацию в интернете?
>>297189 Он может искать инфу в интернете, может даже делать небольшое ревью. Правда привирает иногда немного, но если загнать его в рамки промптами, то он точнее отвечает.
>>347877 Палю лайфхак: соври маме, что вас ведут на экурсию на каникулах, нужно 200 рублей, а сам купи на эти деньги симкарту, свистни паспорт бати, скажешь что он на работе и попросил тебя купить
Скандал: демонстрация нейросети Google Gemini оказалась фейком
Вчера Google представила Gemini — новую языковую модель, которая сразу же стала частью ИИ чат-бота Bard. Тогда же был представлен очень впечатляющий ролик, демонстрирующий возможности Gemini.
Например, ИИ мог распознать движения рукой и сказать, что человек играет в «Камень, ножницы, бумагу». И это означает, что нейросеть смогла уловить абстрактную идею и декодировать её.
Нет. Оказалось, что Gemini распознаёт «Камень, ножницы, бумагу» иначе: ей нужно показать три фотографии с ладонью, сжатым кулаком и двумя пальцами. Взаимодействие с нейросетью происходило не голосом, а прописанным текстом с прямой подсказкой «Это игра». И уже на основе этих данных, являющихся намекаемым воздействием, Gemini угадывала игру. И это очень сильно отличается от декодирования абстракции.
И таких примеров в ролике множество. Например, с порядком объектов Солнечной системы, игрой в напёрстки, в которой под один из трёх стаканов кладут скомканный клочок бумаги. Для работы всех этих примеров Google потребовались иные взаимодействия, которые говорят, что Gemini обучена на этих образах, а другие она вряд ли распознает.
Позже вице-президент по исследованиям Google DeepMind Ориол Виньялс добавил, что ролик является демонстрацией того, что «видео иллюстрирует, как может выглядеть мультимодальный пользовательский опыт, созданный с помощью Gemini». А сделано это, чтобы вдохновить разработчиков. Но почему это нельзя было сказать сразу?