Je reprends bien vite mon thème de dialogue imaginaire sur l’intrication et la non –localité quantique ….Sachant que j’ai promis des explications et qu’ il me faut les structurer …..
Ne crois-tu pas PAPY qu’ avant d’ aborder les propriétés de l’ espace sub quantique , tu devrais mieux préciser ce que tu sais sur les « pertes » de transmission dans l’ information quantique ?
- Je veux bien PIERRE mais il me faut alors revenir à des travaux précédents que j’ai très schématisés…Repartir de systèmes non interactifs chacun dans son espace de HILBERT , définir l’espace composite , définir ses états séparables ou produits ou alors inséparables , c’est à dire intriqués ….. Ensuite à partir de là plusieurs axes de recherches se sont révélés possibles .Je t’ai déjà parlé des boites noires de Popescu-Rorlich et des corrélateurs représentés par les probabilités des entrées des bits du couple de ALICE et BOB . Ce sur quoi j’ai peut-être oublié d’insister c’est sur ce que l’on peut attribuer comme degré de non localité à ces boites …… ainsi si la non-localité était maximale, une corrélation à 1 seul bit ferait le travail de communication de l'information presque à coût zéro. En prenant comme point de départ que de tels échanges triviaux ne peuvent pas se produire, Wim van Dam et Gilles Brassard ont abordé le sujet de la complexité de la communication et en ont tiré le maximum …..
Tu nous en as déjà un peu parlé , en précisant que le langage le plus adapté aux « dialogues »BOB/ALICE de la mécanique quantique , c’était des bits ( 0 ou 1 etc )
Mais il faut que je te reparle avant , Pierre de la théorie mathématique de la communication : dans cette discipline, on étudie des problèmes dont les entrées sont reparties entre plusieurs communicants . L’ensemble des règles qui définissent les messages envoyés s’appelle protocole de communication. Il faut faire remonter mon historique aux années 40 à 50 pour trouver le véritable inventeur de la théorie de l’information Claude SHANNON …. C’est lui qui a dématérialisé tout contenu de communication en suite logique de « bits ». Peu importe le contenu ( visuel, son, ..). .L’information devient alors une mesure scientifique. Elle n’a pas de lien avec la signification en tant que telle d’un message. Il s’agit d’une théorie des signaux. On ne s’intéresse pas au sens des messages. L’information est une mesure de la liberté de choix, dont on dispose lorsqu’on sélectionne un message. ET le système se schématise sur ma photo :
Plus généralement, la quantité de l’information est définie par le logarithme du nombre des choix possibles …….Et c est alors qu’ on introduit un concept venant d’un autre coin de la physique . Dans l’élaboration des messages ,plus le hasard ou le choix sont limités, plus l’information ( ou l’ entropie ) est faible. La quantité précisément nécessaire à l’établissement de l’information correspond exactement à la notion thermodynamique d’entropie. Elle s’exprime en termes de probabilités.
Mais que vient faire le concept de bruit dans une communication ?
- C’est ce qui va perturber ou parasiter les signaux du message et qui peut provenir des imperfections des constituants , des problèmes d’erreurs dans la transmission ou de l’impossibilité de réaliser une transmission parfaite à100% …..
Ça c’était la communication ordinaire , par signaux morse par exemple …Parle-moi maintenant plus spécialement des difficultés de la communication quantique…..
C’est Andrew C.C. Yao en 1979 qui a inventé le concept de la complexité de la communication quantique …..Pour aller plus loin il faut alors DE NOUVEAU repartir en amont parler des lois de la complexité et faire un détour par une discipline plus ancienne mais tout aussi importante, la théorie de la calculabilité. Celle-ci a pour objet de distinguer ce qui est calculable de ce qui ne l’est pas. Et alors si la calculabilité se contente de prouver qu’un calcul est réalisable par un ordinateur, la complexité cherche à montrer que celui-ci va s’achever en un temps raisonnable……Claude Shannon a été l’un des premiers à proposer de caractériser la complexité d’un problème par la taille du plus petit nombre de portes logiques requises pour résoudre ce problème. La théorie de la complexité vise à aborder donc la notion de calcul d’une manière quantitative.Si on veut quantifier le cout d’un calcul, il faut préciser les opérations les élémentaires autorisées , celles dont le cout est unitaire .Ainsi , en prenant l’exemple de la machine de Turing (une machine abstraite qui exécute des programmes en lisant et en écrivant des données sur un ou plusieurs rubans constitués de cases) , on peut se définir comme algorithme un programme exécutable par une machine de Turing. Et en résumé la complexité d’un problème est alors la complexité du meilleur algorithme qui le résout. Et pour en revenir aux échanges de bits entre BOB et ALICE seule comptera la quantité de communication échangée entre eux ……
A SUIVRE
-