Ce n'était qu'un exemple.Pourquoi tout ramener à l'informatique ? Est-ce que l'énergie nucléaire nous a rendus tous ingénieurs en énergie nucléaire ?
Donc concrètement, ils vont faire quoi les radiologues et traducteurs ??
Ce n'était qu'un exemple.Pourquoi tout ramener à l'informatique ? Est-ce que l'énergie nucléaire nous a rendus tous ingénieurs en énergie nucléaire ?
C' est un bon metier , courant a Londres , ce n' est pas gratuit voir onereux , la clientele abondante ( attente ) , et la avant que l' AI prenne le dessus il va couler de l'eau sous les ponts ...Ce n'était qu'un exemple.
Donc concrètement, ils vont faire quoi les radiologues et traducteurs ??
M. Lafoy, les militants pro écolo auront banni l'utilisation des produits de cirage trop polluant ainsi que le tannage du cuir. Le retour des sabots en bois de recup est à prévoir.C' est un bon metier , courant a Londres , ce n' est pas gratuit voir onereux , la clientele abondante ( attente ) , et la avant que l' AI prenne le dessus il va couler de l'eau sous les ponts ...
Il y a des lavages automatiques pour voitures, pourquoi pas un robot cireur de chaussures?C' est un bon metier , courant a Londres , ce n' est pas gratuit voir onereux , la clientele abondante ( attente ) , et la avant que l' AI prenne le dessus il va couler de l'eau sous les ponts ...
On en trouve même des comparatifs dans un article du Figaro, pour faire plaisir à M.Lafoy !Il y a des lavages automatiques pour voitures, pourquoi pas un robot cireur de chaussures?
Bonsoir Lil00On en trouve même des comparatif dans un article du Figaro, pour faire plaisir à M.Lafoy !
ça fleure bon le retour à la terre et aux pâturages... faut investir dans le Larzac !Les intelligences artificielles comme ChatGPT menacent 300 millions d'emplois dans le monde, selon Goldman Sachs
source
Voir la pièce jointe 130447
Elon Musk et des centaines d'experts réclament une pause dans l'IA, évoquant «des risques majeurs pour l'humanité»
29 mars 2023
Elon Musk et des centaines d'experts mondiaux ont signé mercredi un appel à une pause de six mois dans la recherche sur les intelligences artificielles plus puissantes que ChatGPT 4, le modèle d'OpenAI lancé mi-mars, en évoquant «des risques majeurs pour l'humanité» .
Communique : Dans cette pétition parue sur le site futureoflife.org, ils réclament un moratoire jusqu'à la mise en place de systèmes de sécurité, dont de nouvelles autorités réglementaires dédiées, la surveillance des systèmes d'IA, des techniques pour aider à distinguer le réel de l'artificiel et des institutions capables de gérer les «perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l'IA provoquera». La pétition réunit des personnalités qui ont déjà publiquement exprimé leurs craintes envers des IA incontrôlables qui surpasseraient l'être humain, dont Elon Musk, propriétaire de Twitter et fondateur de SpaceX et de Tesla, et Yuval Noah Harari, l'auteur de «Sapiens».
Le cofondateur d'Apple parmi les signataires
Le patron d'OpenAI, concepteur de ChatGPT, Sam Altman a lui-même reconnu être «un petit peu effrayé» par sa création si elle était utilisée pour de «la désinformation à grande échelle ou des cyberattaques». «La société a besoin de temps pour s'adapter», avait-il déclaré à ABCNews mi-mars. «Ces derniers mois ont vu les laboratoires d'IA s'enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne - pas même leurs créateurs - ne peut comprendre, prédire ou contrôler de manière fiable», estiment-ils.
«Devons-nous laisser les machines inonder nos canaux d'information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ? Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus», concluent-ils.
Les signataires comprennent aussi le cofondateur d'Apple Steve Wozniak, des membres du laboratoire d'IA de Google DeepMind, le patron de Stability AI Emad Mostaque, concurrent d'OpenAI, ainsi que des experts en IA et universitaires américains, ingénieurs cadres de Microsoft, groupe allié de OpenAI.
Source
Voir la pièce jointe 130423
J'ai traduit ca par "on est en retard, donnez nous 6 mois pour rattraper sil vous plait"
Une pause de 6 mois ca sert a rien. Un gouvernement qui aurait le temps de légiférer à l'arrache en 6 mois ? Une legislation mondiale en 6 mois ?
J'ai deja dit que le probleme numero 1 de l'IA, c'est que contrairement a un individu, une AI ne peut pas etre convaincu. Elle a des convictions qui font partie de son algorythme et elle n'en demordra jamais. Ainsi, une AI woke debitera du woke meme si tu lui demontre par A plus B que ce qu'elle dit n'a aucun sens.
Algorythme :J'ai deja dit que le probleme numero 1 de l'IA, c'est que contrairement a un individu, une AI ne peut pas etre convaincu. Elle a des convictions qui font partie de son algorythme et elle n'en demordra jamais. Ainsi, une AI woke debitera du woke meme si tu lui demontre par A plus B que ce qu'elle dit n'a aucun sens.