Ошибки, таймауты и сбои — теперь под вашим контролем.
Компания Zipstack представила Rubberduck — локальный обратный прокси-сервер с кэшированием, который позволяет эмулировать работу популярных поставщиков LLM вроде OpenAI, Anthropic, Azure OpenAI, AWS Bedrock и Google Vertex AI. Инструмент предназначен для разработчиков, которым нужно тестировать приложения в условиях, максимально приближённых к реальным, но без постоянного подключения к настоящим API.
Rubberduck кэширует успешные ответы моделей и ускоряет повторяющиеся запросы, а главное — позволяет симулировать сбои: таймауты, задержки, ошибки 429 или 500, ограничения по запросам и даже реальные времена отклика. Всё это помогает проверять устойчивость сервисов и готовность к нестандартным ситуациям.
Для удобства есть веб-интерфейс с управлением прокси-инстансами, логами, статистикой и аутентификацией через email или OAuth. При этом Rubberduck не хранит ключи от настоящих LLM — они передаются напрямую, что снижает риски безопасности.
Проект уже доступен на GitHub и начал набирать популярность в сообществе разработчиков как простой и практичный способ тестировать интеграции с ИИ-моделями.