Security Lab

VLM

Visual Language Model (VLM) - это модель машинного обучения, которая позволяет роботам понимать и интерпретировать своё окружение. VLM анализирует визуальные данные (например, изображения или видео) и соотносит их с языковой информацией, чтобы определить, какие объекты находятся в поле зрения робота и как они могут быть использованы. Это ключевой элемент для обучения и функционирования роботов, позволяющий им адаптироваться к различным ситуациям и выполнять задачи в незнакомых условиях.

Азимов был прав: три закона робототехники наконец добрались до реальных роботов

Google представляет ряд технологий, который сделает автономные машины ещё умнее и безопаснее.

DeepMind представила RT-2: робота, который может переводить ваши мысли в действие

Робот обучается на данных из интернета и может стать личным ассистентом.

Google представила крупнейшую нейросеть PaLM-E для автономного управления роботами

Мультимодальная визуальная языковая модель с 562 млрд. параметров может генерировать последовательность действий без участия человека.