L’intelligence artificielle ne peut pas acquérir de conscience, elle imite le comportement humain

L’universitaire et écrivain indien Kenan Malik a écrit un article remarquable sur l’intelligence artificielle dans The Guardian. propriétaire, “Oubliez la conscience… Concern est une intelligence artificielle qui reproduit les préjugés humains” Dans son article intitulé, “Le groupe autour de la ‘conscience’ du robot cache bien d’autres préoccupations inquiétantes” Il a dit qu’il y avait d’autres questions à discuter dans l’intelligence artificielle.

LA CONSCIENCE NE PEUT PAS ÊTRE FORMULÉE

Déclarant que la conscience est un concept dont la signification peut être comprise intuitivement, mais qui est difficile à formuler en termes scientifiques, Malik a déclaré que la conscience est souvent confondue avec des concepts similaires mal définis tels que la conscience de soi, la conscience de soi et l’intelligence.

Google a licencié un employé qui pensait que l’intelligence artificielle prenait vie

Malik a répondu aux critiques sur la renaissance du modèle de langage pour les applications de dialogue (Lamda), qui a ensuite été développé par Google : “Un ordinateur traite des symboles. Un programme a besoin d’une douzaine de règles ou d’algorithmes pour convertir un ensemble de symboles en un autre. Mais il ne sait pas ce que signifient ces symboles. Parce que le sens n’est pas pertinent pour un ordinateur. . nous devenons simplement aptes à reconnaître les modèles et des réponses significatives pour les gens. “Nous aimons” passer du temps avec nos amis et notre famille. “

Les gens traitent les symboles de la même manière lorsqu’ils pensent, parlent, lisent et écrivent. Mais pour les humains, contrairement aux ordinateurs, le sens est tout. Lorsque nous communiquons, nous transmettons du sens. Ce n’est pas seulement l’extérieur, mais aussi l’intérieur de l’ensemble de symboles qui est important, ce n’est pas seulement la syntaxe qui est importante, mais aussi la sémantique. L’importance du sens pour les gens est nécessaire en tant qu’êtres sociaux. Je ne me donne de sens qu’en étant en contact avec la communauté d’autres êtres pensants, sentants, parlants dans laquelle je vis. Traduire les processus cérébraux mécaniques des pensées fondamentales en ce que nous appelons le sens nécessite le monde social et une convention convenue pour comprendre cette expérience. »

IL Y A D’AUTRES CHOSES QUE NOUS DEVONS ÊTRE À PROPOS DE L’INTELLIGENCE ARTIFICIELLE

Malik a déclaré plus tard qu’il y avait d’autres questions à discuter concernant l’intelligence artificielle :

Il y a beaucoup de problèmes avec l’intelligence artificielle dont nous devons nous occuper. Aucun d’entre eux n’a quoi que ce soit à voir avec le pressentiment. Par exemple, il y a le problème du biais. Parce que les algorithmes et autres formes de logiciels sont formés à l’aide de données provenant de la population humaine, ils copient souvent les préjugés et les attitudes de ces sociétés. Les logiciels de reconnaissance faciale montrent des préjugés raciaux et des personnes sont arrêtées par erreur pour biais d’IA. L’IA utilisée dans le domaine de la santé ou de l’emploi peut reproduire les préjugés sociaux dans la vie réelle.

Ensuite, il y a la question de la vie privée. De l’utilisation accrue des logiciels de reconnaissance faciale aux techniques de police prédictive, des algorithmes qui nous surveillent en ligne aux systèmes «intelligents» à la maison comme Siri, Alexa et Google Nest, l’intelligence artificielle s’infiltre dans nos vies les plus profondes. La police de Floride a reçu l’autorisation de télécharger des enregistrements de conversations privées réalisées à partir de l’appareil Amazon Echo. On trébuche vers le panoptique numérique.

Nous ne semblons pas avoir besoin de la permission de LaMDA pour “expérimenter” dessus, comme le prétend Lemoine. Mais nous devons insister sur une plus grande transparence des entreprises technologiques et des agences gouvernementales sur la manière dont elles utilisent l’intelligence artificielle pour la surveillance et le contrôle. Les problèmes éthiques posés par l’intelligence artificielle sont à la fois beaucoup plus petits et plus gros que le fantasme d’une machine raisonnable.”


LA SOURCE: NEWS7, GARDIEN

Mustafa Cokyasar
Haber7.com – Éditeur de technologie

Nouvelles 7 - Mustafa Çokyaşar

Leave a Comment