Les premiers robots "vision-langage-action" arrivent
Capable d'agir chez toi, sans connexion internet 👇
C'est ce que Google DeepMind vient d'annoncer avec Gemini Robotics On-Device
C'est leur premier modèle vision-langage-action capable de rendre les robots plus rapides, plus efficaces et adaptables, sans connexion Internet.
Jusqu'ici, les robots avaient souvent besoin du cloud.
Mais qui dit cloud dit aussi latence et dépendance à la connectivité.
La nouveauté ici :
- Temps de réponse ultra-rapide (idéal pour les gestes précis)
- Des consignes en langage naturel
- S'adapte à de nouvelles tâches avec seulement 50 à 100 démonstrations
- Capable de manipulations complexes : ouvrir un sac, plier un t-shirt, etc.
Bref, un modèle généraliste, léger, et à portée d'API via le SDK fourni.
Il exécute, apprend, s'adapte, sans demander la permission à un serveur à l'autre bout du monde.
On a connu l'IA embarquée sur nos applications, textes ou photos/vidéos/
Maintenant, ce sera sur ton prochain robot !
De mon côté, je vois un tournant :
L'IA sort de l'écran, prend forme... et débarque dans nos foyers.
Mais il y a aussi un risque : plus l'IA est locale, plus elle est personnelle.
Et ça pose des vraies questions d'éthique, de contrôle et de responsabilité.
💬 Alors, ton avis ?
- Tu préfères un robot connecté au cloud ou 100% offline ?
- Et surtout : tu lui confierais quoi en premier ?
Développeur logiciel industriel et embarqué, C, C++, Qt, C#... mais pas seulement. Je suis un authentique Concepteur de Solutions Complètes, un ingénieur créatif et passionné. Réindustrialisons la France !
2 months ago
C'est très étonnant de la part de cette firme !
Il ne transmet vraiment jamais de rapport d'activité ? juste pour "contribuer aux améliorations" ?
Bon, de toute manière cela le limite alors aux services ne nécessitant ni une compétence encyclopédique, ni l'accès à des services externes, en lecture seule ou avec interaction. Les transports par exemple.
Cela risque de plomber fortement son marché.