Top Banner
1 William Ross Ashby 6 septembre 1903, Londres – 15 novembre 1972
18
Welcome message from author
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
Page 1: Ashby William Ross

1

William Ross Ashby

6 septembre 1903, Londres – 15 novembre 1972

Page 2: Ashby William Ross

2

William Ross Ashby (6 septembre 1903, Londres – 15 novembre 1972) est un psychiatre-ingénieur anglais venu très tôt à la cybernétique et son influence est telle que Ludwig von Bertalanffy l’a mentionné pour sa contribution qui a influencé Norbert Wiener, Herbert Alexander Simon et les autres.

10 Decembre 1955

Page 3: Ashby William Ross

3

De Ashby,

• la Loi de la variété requise est la plus connue. La "variété" est le dénombrement de la quantité de comportements et d’états différents exhibés par un système.

• Pour qu’un système "A" puisse contrôler (à la fois "surveiller" dans la signification française et "commander" dans la signification anglaise) un système "B", il faut et il suffit que la variété de "A" soit supérieure ou au moins égale à celle de "B".

Il s’ensuit qu’une "inversion de contrôle" se produit lorsque la variété du "commandé" augmente et dépasse celle du "commandeur".

C’est la version cybernétique de la "dialectique du maître et de l’esclave" chez Hegel. À force de travailler au service du maître, l’esclave acquiert de plus en plus de compétences tandis que le maître perd ses compétences initiales à force de se faire servir et, alors, l’esclave devient le maître de son ancien maître qui devient le nouvel esclave de son ancien esclave !

Page 4: Ashby William Ross

4

Ashby a beaucoup travaillé sur l’augmentation de l’intelligence et participe aux travaux sur l’intelligence artificielle, sur la complexité reliée à la variété et sur les origines de l’ordre exprimées par le principe de von Foerster "Order from Noise" et le principe de Schrödinger "Order from Order".

1. Le premier est un processus stochastique du hasard et de la nécessité dans la perspective d'une EXPLICATION CYBERNÉTIQUE où une "réponse appropriée" aux contraintes de l'environnement et du contexte a de meilleures chances de survie, de développement et de reproduction parmi toutes les occurrences possibles et le deuxième et un principe d’organisation par extension.

2. Le principe "Order from Noise" est aussi un principe d’auto-organisation et de complexité chez Edgar Morin et Henri Atlan pour qui la condition de l’auto-organisation est la "redondance" initiale élevée qui n’est autre que la "variété" de Ashby.

Page 5: Ashby William Ross

5

Bibliographie"Principles of the Self-Organizing Dynamic System", Journal of General Psychology (1947), volume 37, pages 125--128 (première occurrence du terme "Auto-organisation"). Design for a Brain, Chapman & Hall, 2nd edition, 1966, ISBN 0-412-20090-2 (édition originale, 1952) Introduction to Cybernetics, Chapman & Hall, 1956, ISBN 0416683002 "Principles of Self-Organizing Systems" in Heinz Von Foerster and George W. Zopf, Jr. (eds.), Principles of Self-Organization (Sponsored by Information Systems Branch, U.S. Office of Naval Research), 1962 Ashby, W. R. [1964a], "Constraint analysis of many-dimensional relations." General Systems Yearbook., 9, pp. pp. 99-105.

Page 6: Ashby William Ross

6

• Ashby, W. R. [1964b], "Introductory remarks at panel discussion." In: Mesarovic, Ed., Views in General Systems Theory. John Wiley, New York, pp. 165-169.

• Ashby, W. R. [1965a], "Constraint analysis of many-dimensional relations." In: Wiener, N. and Schade, J. P., eds., Progress in Biocybernetics. Elsevier, Amsterdam, pp. 10-18.

• Ashby, W. R. [1958], "Requisite variety and its implications for the control of complex systems." Cybernetica, 1(2), pp. 83-99.

• Ashby, W. R. [1965b], "Measuring the internal informational exchange in a system." Cybernetica, 1, pp. pp. 5-22.

• Ashby, W. R. [1956b], "Design for an intelligence-amplifier." IN: Shannon, C. E. and Mc Carthy, J., Eds., Automata Studies. Princeton University Press, Princeton, NJ, pp. 215-233.

Page 7: Ashby William Ross

7

• Ashby, W. R. [1968], "Some consequences of Bremerman's limit for information-processing systems." In: Oestreicher, H. Moore D., eds., Cybernetic Problems in Bionics.. Gordon and Breach, New York, pp. pp. 69-76.

• Ashby, W. R. [1969], "Two tables of identities governing information flows within large systems." ASC Communications, 1(2), pp. 3-8.

• Ashby, W. R. [1970a], "Information flows within co-ordinated systems." In: Rose, J., ed., Progress in Cybernetics. Gordon and Breach, London, pp. pp. 57-64.

• Ashby, W. R. [1972a], "Setting goals in cybernetic systems." In: Robinson, H. W. and Knight, D. E., Eds., Cybernetics, Artificial Intelligence and Ecology. Spartan Books, New York, pp. 33-44.

Page 8: Ashby William Ross

8

• Ashby, W. R. [1972b], "Systems and their informational measures." In: Klir, G. J., ed., Trends in General Systems Theory. Wiley-Interscience, New York, pp. pp. 78-97.

• Ashby, W. R. [1973], "Some peculiarities of complex systems." Cybernetic Medicine, 9, pp. pp. 1-7.

• Ashby, W. R. [1981], Mechanics of Intelligence. Intersystems (edited by R. Conant). Seaside, CA.

• Ashby, W. R. [1969], "Two tables of identities governing information flows within large systems." ASC Communications, 1, pp. pp. 3-8.

• Conant, R. C. and Ashby, W. R. [1970], "Every good regulator of a system must be a model of that system." Intern. J. of Systems Science, 1(2), pp. 89-97.

Page 9: Ashby William Ross

9

• Gardner, N. R. and Ashby, W. R. [1970], "Connectance of large dynamic (cybernetic) systems: Critical value of stability." Nature, 228, pp. 784.

• Madden, R. F. and Ashby, W. R. [1972], "On the identification of many-dimensional relations." Intern. J. of Systems Science, 3, pp. 343-356.

• Walker, C. C. and Ashby, W. R. [1966], "On temporal characteristics of behavior in certain complex systems." Kybernetic, 3(2), pp. 100-108.

Page 10: Ashby William Ross

10

Travaux influencés par Ashby

Aulin, A. [1982], The Cybernetic Laws of Social Progress: Towards a Critical Social Philosophy and a Criticism of Marxism. Pergamon Press, Oxford.Klir, G. J. [1976], "Identification of generative structures in empirical data." Intern. J. of General Systems, 3(2), pp. 89-104.Klir, G. J. [1978], Applied General Systems Research: Recent Developments and Trends. Plenum Press, New York.Klir, G. J. [1986], "Reconstructability analysis: An offspring of Ashby's constraint theory." Systems Research, 3(4), pp. 267-271.

Page 11: Ashby William Ross

11

Klir, G. J. and Elias, D. [2003], Architecture of Systems Problem Solving (Second Edition). Kluwer/Plenum, New York.

Klir, G. J. and Rozehnal, I. [1996], "Epistemological categories of systems: An overview." Intern. J. of General Systems, 24(1-2), pp. 207-224.

Klir, G. J. and Way, E. C. [1985], "Reconstructablility analysis: Aims, results, open problems." Systems Research, 2(2), pp. 141-163.

Pittarelli, M. [1990], "Reconstructability analysis: An overview." Revue Internationale de Systemique, 4(1), pp. 5-32.

Porter, B. [1975], "Requisite variety in the systems and control sciences." Intern. J. of General Systems, 2(4), pp. 225-229.

Zeigler, B. P. [1974], "A conceptual basis for modelling and simulation." Intern. J. of General Systems, 1(4), pp. 213-228.

Page 12: Ashby William Ross

12

Homeostat

Définition En cybernétique, un homéostat est un système

asservi : les paramètres d'entrée (grandeur d'entrée) et de sortie (grandeur réglée) sont asservis, car les variations des uns sont sous le contrôle des variations des autres.

(technique) système cybernétique capable d'organiser son fonctionnement pour retrouver un équilibre stable préfini.

Page 13: Ashby William Ross

13

Machine construite en l940 par W. Ross Ashby pour démontrer le comportement d'un système instable. Il répond aux déviations de certaines valeurs essentielles d'une variable continue provoquée par un expérimentateur dans l'environnement de la machine avec des changements structurels par étapes, et qui vient se stabiliser seulement quand un comportement a été trouvé qui garde les valeurs de cette variable critique dans des limites souhaitables (voir la morphogenèse). Les valeurs essentielles peuvent être interprétées en tant qu'un état homéostatique, un but ou un idéal et les changements structurels sont adaptés relativement à ces valeurs (voir l'homéostasie, l'adaptation). (Krippendorff)

Page 14: Ashby William Ross

14

laboratoire de Gloucester / 1948 – 1952

Page 15: Ashby William Ross

15Homéostat : Détails des notes de

ASHBY

Page 16: Ashby William Ross

16

Schéma des liaisons entre les quatre éléments de l'homéostat

• L’Homeostat se compose de 4 unités au sommet desquelles pivotent 1 aimant. Les déviations angulaires de chaque aimant par rapport à leur position centrale, représentent donc 4 variables essentielles.

• Chaque unité produit un courant proportionnel à l’écart angulaire de l’aimant.

• Les unités sont reliées ensemble de sorte que chacune d’elles envoie aux 3 autres, son courant de sortie et reçoive en entrée, les courants émis par les 3 autres.

• Dans chaque unité, les courants reçus s’ajoutent dans un bobine magnétique, qui commande à son tour la position de l’aimant.

Page 17: Ashby William Ross

17

Le cybernéticien anglais, ayant à s'adresser à des économistes, réaffirmait sa confiance dans la « stratégie » qui l'avait conduit à construire ses homéostats : la complexité d'un phénomène ne peut être étudiée que dans un modèle réduit isomorphe qu'on peut en créer.

On s'était aperçu depuis longtemps qu'il était plus rapide d'étudier le terrain sur la carte, que d'aller l'explorer à pied pendant des heures.

Le mérite d‘Ashby est d'avoir soutenu

• que la complexité est une propriété qui peut être étudiée en elle même et qui a ses propres caractéristiques chaque fois qu'elle apparaît;

• que cette complexité est universelle et que le cerveau et la société sont analogues dans leurs complexités.

Page 18: Ashby William Ross

18

On voit tout au cours de la vie du Docteur William R. Ashby l'unité de sa recherche. Ce qu'un jour, il appela un « cerveau artificiel », au grand scandale de certains philosophes traditionnels, était le modèle en réduction d'un système réel : le cerveau ; l'un et l'autre ayant des structures isomorphes.L'emploi de systèmes isomorphes est un exemple de la méthode qui est fondamentale dans le traitement scientifique des systèmes complexes.

Jean Sablière / De l'automate à l'automatisation. - Paris : Gauthier-Villars, 1966. - 127 p.