🚨 Il connecte ChatGPT à un fusil !
IA + armes à feu : une innovation hors de contrôle ?👇
Cet ingénieur (pseudo STS 3D) a créé une tourelle robotisée capable de viser et tirer… contrôlée par ChatGPT en temps réel.
OpenAI a réagit suite à cette vidéo qui a fait le buzz en bloquant l'API pour violation des règles interdisant l’usage pour des armes ou des systèmes mettant en danger la sécurité.
Mais cette affaire m'interroge :
👉 Peut-on vraiment encadrer l’usage de l'IA ?
Avec l’arrivée des LAM (Large Action Models), le problème pourrait s'amplifier.
👉 Ces modèles peuvent non seulement comprendre, mais aussi exécuter des actions physiques (piloter un drone, activer un bras robotisé, etc.)
Ce qui m'inquiète, c'est :
1. L’accessibilité de l’IA rend ce genre de projets à la portée de tous
2. La frontière entre l'innovation utile et danger réel devient floue
💬 Alors, votre avis
- Comment encadrer ces technologies sans freiner leur potentiel ?
- Les LAM doivent-ils être strictement réservés à des usages encadrés ?
- Où placer la limite entre responsabilité et dérive technologique ?
#IA #LAM #Éthique #Sécurité #Innovation #IntelligenceArtificielle
Cela me rappelle quand on pensait que jamais, Ô grand jamais, les drones ne seraient armés...
Il y a toujours des gens pour détourner les usages, que ce soit pour le meilleur ou pour le pire.
En tout cas techniquement parlant, et en terme d'utilisation de l'I.A.: s'il a bossé seul, c'est en soi un exploit.