Lensemble des activités scientifiques qui se sont développées dans les pays occidentaux depuis Descartes, repose sur une réduction du complexe au simple. Cette démarche s’est d’abord avérée efficace mais, dans bien des domaines, elle a maintenant atteint ses limites. Les systèmes possèdent des propriétés collectives non réductibles à celles de leurs éléments
Faudelest encore tout jeune mais il a déjà une longue et belle carrière derrière lui. A tel point que le petit Prince du Raï est en passe de devenir le véritable Roi du Raï français. Faudel Bellula, est né le 6 juin 1978 dans le quartier du Val Fourré à Mantes-la-Jolie. Ecoutant de la musique dès son plus jeune âge (Le raï par l'intermédiAIRe de ses parents et de sa grand
2) ALORS QUE la contradiction de motifs équivaut à un défaut de motifs ; qu'en relevant que la somme de 35 000 réclamée au titre des frais de gestion n'était absolument « pas justifiée » et, en même temps, que sa « justification » relevait de l'article 700 du Code de procédure civile, la Cour d'appel, qui a tout à la fois
Ilne vous reste plus que quelque heure pour candidater à la pré-sélection organisée par le département de la Somme. Le recrutement
Pourquoile tout est plus que la somme de ses parties - pour une approche scientifique de l'émergence (Broché) achat en ligne au meilleur prix sur E.Leclerc. Retrait gratuit dans + de 700 magasins Retrait gratuit dans + de 700 magasins
Le01/02/2015 à 12:00 par La rédaction Revue ElectroniqueS Dans son étude sur le circuit imprimé en France, Bernard Bismuth montre l’importance de coopérations étroites entre tous les acteurs de la filière électronique, notamment entre fabricants et acheteurs de circuits imprimés, pour l’optimisation des performances de cette filière.
Lorsquele tout est plus grand que la somme de ses parties: la cooccurrence de la toxicomanie et des autres troubles mentaux Louise Nadeau* Les «ma lades men taux», les al coo li ques et les toxi co ma nes ont été et sont en core con si dé rés
3mois: C’est le nombre de mois environs nécessaire pour passer les 2 étapes (challenge et évaluation) que vous devez passer avant de devenir trader sur My Forex Funds.AlsaBot le fait pour vous les yeux fermés. 155€ à 1080€: c'est le prix de la licence, en euros, qui va vous permettre de débloquer le capital de FTMO (10k€ à 160k€) pour faire trader le robot.
Lematériel est fourni. (Vous pouvez embarquer aussi avec votre matériel si vous le souhaitez). Que vous soyez débutant ou avisé, l'équipage est à votre disposition pour tout conseil. Réservation obligatoire ! Pêche en mer. Pêche, Nature -
Pourune approche scientifique de l'émergence, Pourquoi le tout est plus que la somme de ses parties, Jacques Ricard, Hermann. Des milliers de livres avec la livraison chez vous en 1 jour ou en magasin avec -5% de réduction .
ZDkY. Le travailleur social est possiblement le professionnel le plus amené à échanger avec ses partenaires du réseau de la santé, de l’éducation et du communautaire. Dans le milieu institutionnel, plus particulièrement, il intervient rarement seul. Dans le cadre d’un processus d’orientation qui est devenu la TÉVA transition de l’école à la vie active, en partenariat avec des représentants de l’école secondaire Antoine de St-Exupéry, j’ai réalisé une demande de services au Centre de réadaptation Lucie-Bruneau pour une évaluation des capacités de travail. Quelques mois plus tard, Frédéric Loiselle, ergothérapeute au Centre de réadaptation qui a réalisé cette évaluation, communique avec moi pour me demander si la personne que nous aidons en commun serait intéressée à prendre part à un projet novateur qu’il vient de créer dans le contexte montréalais, le Cirque social dans le cadre de la TÉVA. Un projet par lequel, à travers des activités de cirque, on vise le développement de l’autonomie, l’optimisation des paramètres physiques et le surpassement de soi pour favoriser une plus grande insertion sociale. M. Loiselle m’interpelle en soulignant que cette TÉVA pourrait représenter un défi de concertation porteur entre l’enseignante de stage, le participant, et nous. Suite à l’autorisation de la personne concernée, les premiers échanges débutent et révèlent nos identités professionnelles. L’ergothérapeute nous aborde en utilisant une terminologie qui lui est propre. Il soulève les questions des capacités physiques, des AVD activités de la vie quotidienne, des mesures de rendement occupationnel. Le travailleur social utilisera à son tour les concepts spécifiques à son univers et les thèmes de la famille, des réalités multiculturelles et de la précarité économique deviendront dominants. Peu à peu, les discours tentent de s’arrimer, orientés sur les besoins du participant. Voilà , le dialogue est lancé, la concertation prend son envol, mais comme pour Icare », la chute n’est pas exclue. Divergences Le spécialiste en face de nous arrive avec ses grilles d’évaluation, ses écoles de pensée, ses méthodologies dictées par les mandats institutionnels et orientées par les appartenances professionnelles. Certaines différences prennent racine dans nos caractéristiques personnelles. Nous sommes déterminés en partie par un genre, un âge, une origine sociale, des valeurs familiales, un nombre d’années d’expérience. Nous n’arrivons pas nécessairement au même moment dans l’intervention. La concertation constitue un terrain propice aux alliances, mais aussi aux luttes de pouvoir et aux affrontements à la fois individuels et institutionnels quand la confrontation prend toute la place. Le conflit n’est pas nécessairement entropique. Il peut nous amener à découvrir des rivages inconnus, à parvenir à de nouveaux équilibres s’il ne devient pas chronique. Si cela arrive, ce sont les personnes que nous aidons et leurs familles qui en subiront les contrecoups. Nous avons un devoir d’entente, mais certains n’y parviennent pas par absence de conviction, mauvaise foi ou compétences insuffisantes. La concertation à deux ou à plusieurs intervenants constitue un art difficile à maîtriser. Pour ceux qui ne veulent pas s’y risquer, qui affirment que la concertation coûte trop cher, qu’au calcul elle signifie perte de temps ou le risque d’un ajout d’un mandat qui n’est pas le sien, les sabotages apparaissent multiples. Dans la concertation, il y a toujours péril en la demeure, car aucune entente écrite ne va en assurer la réelle viabilité. Face aux plans de services intégrés PSI, incontournables pour structurer les actions à venir et répartir les mandats, mais où il y a trop peu d’imputabilité, la concertation paraît relever de l’impossible, et faut-il être rêveur pour y croire malgré tout? Dans un contexte de complexité, de rareté des ressources, cette concertation n’est-elle pas indispensable, et le chemin le plus propice pour qu’y surgisse l’inattendu et l’inespéré? Une démarche délicate Une concertation qui devrait, comme l’a souvent énoncé Jacques Salomé, chercher non plus à opposer ses points de vue, mais à favoriser l’apposition des points de vue qui ne vise pas à affaiblir, diminuer, disqualifier ou dominer le point de vue de l’autre ». Cette apposition qui favorise la mise en commun ne tient qu’à un fil, car les mots dits et les non-dits, au lieu de créer des ponts, peuvent séparer. La concertation est un exercice communicationnel périlleux, car elle se situe au cœur de la relation avec l’autre. Quand elle se révèle efficiente, elle élargit le champ des possibles et ouvre la porte à des services que nous ne connaissions même pas. Nous découvrirons au terme de ce voyage que nos boîtes à outils respectives autant que celle du participant se sont enrichies de cette acculturation. Voilà ma compréhension de ce qui est arrivé dans ma rencontre avec l’ergothérapeute du Centre de réadaptation où il y a eu réciprocité. Ce dernier, s’il arrive au même constat, utilisera certainement d’autres mots pour le dire. Peut-être que notre consensus consistera à reconnaître que c’est finalement la magie du cirque qui nous aura portés, validant ainsi la règle durkheimienne voulant que le tout est plus que la somme de ses parties ». Une magie que nous tentons de reproduire dans d’autres milieux et contextes d’intervention.
J'ai toujours été agacé par la maxime Le tout est plus que la somme de ses parties» due au grand Aristote. Elle a été commentée mille fois et presque toujours applaudie sans beaucoup de sens critique. La raison de cette agacement est que je ne voyais pas à quoi pouvait correspondre sérieusement —c'est-à -dire mathématiquement ou logiquement— ce "plus" que posséderait toujours le tout sur la somme de ses parties. Pour donner à la maxime un sens intéressant —et si possible démontrable—, il faut fixer une notion de valeur, et constater —ou mieux prouver— que celle du "tout" est plus grande que la somme des valeurs des "parties". Pour faire une somme, il faut dépasser les idées vagues et définir une mesure. Il faut donc associer un nombre au "tout" et d'autres à chaque "partie". La maxime avec peut-être des hypothèses restrictives à formuler doit pouvoir devenir un théorème. Il semble assez naturel de rechercher cette valeur sous la forme d'une mesure de complexité ou de contenu en information car ce plus» évoqué est vraisemblablement un enrichissement, ce qu'aujourd'hui nous cherchons à comprendre en employant les mots information et complexité. En résumé, pour tirer quelque chose de formel et donc de précis de la maxime sur le "tout" et les "parties", on doit considérer des objets A1, A2, ..., Ak qui auront chacun une certaine complexité ComplexitéA1, ComplexitéA2, ..., ComplexitéAk ne précisons pas de quelle complexité on parle pour l'instant ni son rapport éventuel avec de l'information, et dont la réunion UnionAi aura une complexité plus grande que la somme des complexités individuelles ComplexitéUnionAi > ComplexitéA1 + ... + ComplexitéAk Il se trouve que ça ne marche pas bien pour toutes les idées qui viennent en premier à l'esprit du mathématicien et de l'informaticien théoricien. Tentative 1 Prenons pour objet des ensembles au sens mathématique et pour mesure de leur complexité leur nombre d'éléments. Ce n'est pas absurde plus un ensemble comprend d'éléments, plus il est complexe. Il y a bien un rapport entre les deux côté de l'inégalité étudiée, mais il est inverse de celui qu'on attend Complexité UnionAi ≤ Complexité A1 + ... + Complexité Ak Il s'agit d'un théorème immédiat en théorie des ensembles. Dans le cas d'ensembles finis, il n'y a égalité que lorsque tous les ensembles sont disjoints deux à deux, ce qui se produit plutôt rarement. Notre première tentative de formalisation, donne et démontre une maxime opposée à celle d'Aristote ! Tentative 2 Prenons pour objet des problèmes algorithmiques applicables à des entiers n. Quelques exemples. A1 factoriser n» ; A2 trouver la somme des diviseurs de n» ; A3 déterminer si n est un nombre premier» ; A4 déterminer si n est un carré parfait» ; etc. Prenons pour le tout, le problème de résoudre l'ensemble des problèmes élémentaires simultanément. Pour mesure de complexité, prenons —cela va de soi pour qui s'intéresse à la complexité des algorithmes— le nombre d'opérations nécessaires ou la taille de la mémoire nécessaire pour mener la résolution des problèmes. On sait par exemple depuis 2002 que savoir si un nombre n est premier problème de la primalité est polynomial en fonction de la taille de n. Avec cette formalisation on ne peut plus naturelle pour qui s'occupe d'algorithmes, la maxime d'Aristote ne marche toujours pas. En effet, la complexité de la résolution du "tout" sera au plus la somme des complexités des "parties" et sera souvent plus faible car certains problèmes comme ceux de notre liste bénéficient des calculs faits pour d'autres ce qui permet des économies de ressource pour qui cherche à traiter les problèmes simulténément. La complexité du "tout", dans le cas des problèmes et algorithmes, est toujours inférieure ou égale à la somme des complexités des "parties". Complexité UnionAi ≤ Complexité A1 + ... + Complexité Ak Dommage ! Tentative 3 On considère des objets numériques finis et on mesure leur valeur par la complexité de Kolmogorov, qui, par définition, est la taille du plus petit programme qui les engendre. Cette mesure de complexité est aujourd'hui unanimement considérée comme la bonne mesure du contenu en information» d'un objet numérique. Elle généralise l'entropie de Shannon. Elle est utilisée en informatique mais aussi en physique, en philosophie des sciences, en biologie, en psychologie. Pas de chance, et c'est plus grave ici car il s'agit vraiment d'une mesure de contenu en information, là encore la complexité de Kolmogorov d'un ensemble d'objets numériques finis est inférieure ou égale à la somme des complexités de Kolmogorov des objets pris un à un. C'est un théorème de la théorie. L'idée de la démonstration est simple les programmes les plus courts qui engendrent A1, A2, ..., Ak, peuvent être mis bout à bout ; ils constituent alors un programme qui engendre le "tout" ; ce programme somme n'est peut-être pas le plus court qui donne le "tout", mais le programme le plus court qui donne le "tout" sera plus court puisqu'il y a déjà ce programme là et donc la complexité du "tout" sera inférieure à la somme des complexité des "parties". Là encore, la théorie dit et démontre le contraire de la maxime d'Aristote. Fort de ces exemples, il me semblait que jamais dans aucun cas, on ne pouvait mathématiquement trouver des situations où la complexité du "tout" est plus grande que la somme des complexités des objets pris individuellement. Même en cherchant le plus honnêtement possible, quelle que soit la façon naturelle de définir et de mesurer la complexité, pas de "tout" meilleur que "la somme des parties". Précision que dans ma recherche d'une mesure de complexité satisfaisant la maxime d'Aristote, j'ai exclu les méthodes factices où on place dans le "tout" autre chose que l'ensemble des "parties". Par exemple, je ne considère pas comme une illustration acceptable de la maxime d'Aristote qu'on dise qu'il y a dans un mot plus que ce qu'il y a dans l'ensemble de ses lettres. Il est vrai que dans le mot COMPLEXE, il y a plus que dans la donnée de l'ensemble de ses lettres C, E, E, L, M, O, P, X, mais c'est bien évidemment parce qu'on ordonne les lettres, et que cet ordre ajouté aux parties constitue le "plus" qu'on trouve dans le "tout" et qui n'est pas dans la somme des "parties". De telles illustrations de la maxime d'Aristote sont illusoires et naïves, elles sont triviales et sans intérêt puisque qu'elles sont basées sur un ajout caché quand on constitue le "tout", autrement dit un truc de prestidigitateur. Pouvait-il exister des cas recevables illustrant formellement la maxime d'Aristote dans le champ contemporain des sciences de la complexité ? Enfin un cas qui marche ! La théorie algorithmique de l'information qui détaille tout ce qu'on peut dire et démontrer sur la complexité de Kolmogorov a introduit une notion qui va nous sauver. Il s'agit de la profondeur logique de Bennett» qui est, par définition, le temps de calcul du plus court programme qui produit l'objet numérique fini auquel on s'intéresse. C'est une mesure de complexité structurelle» une mesure de la richesse en organisation, ce que n'est pas la complexité de Kolmogorov qui n'est qu'une mesure de contenu incompressible d'information». Ces deux mesures de complexité diffèrent le plus à propos des objets aléatoires dont l'exemple typique est une suite finie de '0' et de '1' obtenue par des tirages successifs à pile ou face. Pour un tel objet aléatoire, la complexité de Kolmogorov est maximale on ne peut pas le décrire de manière sensiblement plus brève qu'en en donnant les éléments un à un, ce qui est la pire situation puisque l'objet à produire sera explicitement dans le programme. Une suite aléatoire des bits est incompressible alors qu'à l'inverse la profondeur logique est minimale une suite aléatoire n'est pas structurée, son contenu en structure est quasi-nul ; sa profondeur logique de Bennett est réduite au minimum puisqu'exécuter le programme le plus court qui engendre la suite aléatoire revient à exécuter un programme qui recopie une donnée explicitement inscrite dans le programme et qu'une telle copie ne peut pas prendre de temps. Dans le cas général, la profondeur logique de Bennett ne donne pas que le "tout" a une complexité plus grande que la somme des complexités des "parties". En effet, si vous prenez un tout composé de k fois le même objet, sa profondeur logique sera à peu de chose près la complexité d'un seul objet, et donc sera nettement inférieure à la somme des complexités des objets pris un à un. Il ne peut y avoir un théorème du "tout" et des "parties" exprimant sans restriction la maxime d'Aristote, même avec la profondeur logique de Bennett ! En revanche, et c'est là que j'ai eu une surprise, il existe des cas où on peut établir avec certitude ce qui est assez difficile quand on manie le concept de profondeur logique que la complexité d'un tout composé de plusieurs objets sera supérieure à la complexité de la somme de chacun d'eux. Voici un tel exemple imparable. Considérons les deux images A et B. A B Chacune est composée de '0' pixel noir et de '1' pixel blanc d'une manière parfaitement aléatoire. Leur profondeur logique de Bennett est donc minimale comme nous venons de l'expliquer un objet aléatoire n'est pas structuré et possède donc une profondeur logique minimale comparable à celle d'une suite de même longueur composée uniquement de '0'. Le "tout" composé des deux images A et B n'est pas aléatoire, car les deux images sont intimement corrélées. Pour s'en rendre compte, on applique un ou-exclusif entre A et B ce qui donne une image C quand les deux pixels de A et B sont identiques, on met un '1' dans l'images C, sinon on met un '0'. C Faites l'expérience téléchargez les images et superposez-les la superposition simple qui correspond au 'ou' fait déjà apparaître le résultat ; l'opération logique 'ou-exclusif' appelée aussi 'xor' donne exactement C. On voit apparaître un célèbre personnage de l'histoire de France, mais on peut bien sûr par le même procédé à la base de ce qu'on nomme la cryptographie visuelle » obtenir n'importe quelle image aussi structurée qu'on le souhaite en partant de deux objets parfaitement non structurés mais corrélés. On montre par ailleurs que partant de A et de C on obtiendra B en appliquant là aussi un ou-exclusif. Il en résulte que le programme le plus court qui donnera le "tout" A et B sera le programme le plus court de A associé avec le programme le plus court de C, suivi d'un calcul de ou-exclusif entre A et C, ou sera quelque chose très proche de ce procédé. Puisque C est structuré de manière non triviale, ce programme minimal pour le "tout" A et B aura un temps de calcul plus long que la somme des temps de calcul des programmes minimaux pour A et minimaux pour B qui étaient des programmes très rapides puisqu'il n'y aucune structure dans A, et aucune structure dans B. La profondeur logique du "tout" A et B" est donc plus grande que la somme de la profondeur logique de A et de la profondeur logique de B. C'est un théorème et l'énoncé général qu'on peut donner de cette situation est le suivant Quelle que soit la profondeur logique d'un objet numérique C, on peut construire deux objets numériques A et B, de telle façon que A et B soient chacun de profondeur logique minimale, et que le "tout" constitué de A et de B possède une profondeur logique équivalente à celle de C puisqu'il donne C. ComplexitéA union B > ComplexitéA + ComplexitéB Dans le cas de telles situations, on a bien deux objets dont l'ensemble a une complexité structurelle plus grande que la somme des complexités structurelles des parties. Enfin un cas général où la maxime d'Aristote prend un sens formel, précis et démontrable ! Le cas des systèmes complexes Je pense que ce n'est pas un hasard si pour réussir à donner un sens mathématique précis à la maxime d'Aristote en proposant une notion bien définie de valeur des objets qu'on combine, il a fallu se référer à la complexité structurelle telle que l'a définie Bennett et surtout pas à la complexité de Kolmogorov qui ne donnera jamais l'inégalité recherchée puisqu'on démontre qu'elle donne l'inégalité inverse . Il est probable que ceux qui évoquent ce "tout" qui est plus que la "somme" de ses "parties" ont en tête des situations où c'est bien l'organisation ou encore "la richesse en structures", "la valeur fonctionnelle", "le contenu en calcul" qui sert à mesurer ce que valent le "tout" et ses "parties". L'idée exprimée par la phrase d'Aristote est souvent fausse —elle intéresse d'ailleurs parce qu'on la perçoit comme paradoxale—, mais il y a des cas où le paradoxe devient vrai et prouvable ceux où ce qui mesure la valeur du tout est vraiment lié à une richesse en structures. Ces cas font l'intérêt de la maxime. Croire à la maxime et en faire un pilier philosophique des réflexions sur la complexité sans même chercher à savoir de quoi elle parle, ni si cela peut se mathématiser est une attitude ridicule puisque le plus souvent c'est l'inégalité inverse qu'on peut démontrer même quand on envisage la complexité des algorithmes ou la complexité de Kolmogorov. Disposer d'un cas précis où la maxime devient vraie est très éclairant, et je considère qu'avec l'exemple proposé, on a une preuve nouvelle du bien fondé de la définition de Bennett la complexité structurelle d'un objet fini Ob se mesure par le temps de calcul de son programme le plus court», ou, dans la version plus tolérante de la définition de Bennett, par le temps de calcul des programmes courts que produisent Ob». Il existe peut-être d'autres procédés formels non illusoires donnant un sens à la maxime d'Aristote, mais celui qui s'appuie sur la profondeur logique de Bennett appliquée à l'association de deux objets structurés et corrélés est probablement central du fait de sa place au sein de la théorie algorithmique de l'information qui est la théorie la plus générale de l'information. Dans les systèmes complexes, comme les sont les organismes vivants ou les écosystèmes, les interdépendances font qu'on est le plus souvent dans une situation semblable à celle des images A, B et C. Ce qui est apparu dans un premier temps l'exception y devient la règle. La complexité du "tout" mesurée par la profondeur logique de Bennett est donc, dans de telles structures, supérieure à la somme des complexités des "parties". Bien évidemment, Aristote ne pensait pas à la profondeur logique de Bennett, mais il me semble qu'aujourd'hui pour donner un sens technique à son intuition —et il ne faut jamais renoncer à de tels objectifs—, la meilleure méthode possible est de l'évoquer. Qu'il ait fallu deux mille ans pour que l'intuition du Stagirite trouve une forme mathématique robuste et devienne l'objet de science, n'est-ce pas la preuve, encore une fois, de son exceptionnel génie ! Sur la cryptographie visuelle voir Sur la profondeur logique de Bennett voir
le tout est plus que la somme des parties