Home :: DerniersChangements :: DerniersCommentaires :: ParametresUtilisateur :: Vous êtes 3.215.183.194
Le BUG de l'internet

Un dialogue saisi au vol sur la liste "comptoir" @ Café.du le 14 octobre 2014, entre :
Jean-François Morfin (Pionnier de l'internet, membre de l'IETF), et
Audrey Guinchard, Senior Lecturer (Law), Director of International Mobility, University of Essex (UK),
reproduit ici avec l'autorisation des protagonistes.


"si je branche mon matériel, lance mon logiciel, et applique mon noogitiel - que faut-il que je respecte vraiment pour qu'on me reçoive ?"

Le BUG (designed to « Be Unilaterally Global ») technique principal de
l'internet par rapport au Catenet (réseau des réseaux) du Cyclades de
Louis Pouzin est d'avoir été construit sous TCP/IP qui ne fait pas de
différence entre la localisation et l'identification (Cisco a une
proposition assez avancée à l'IETF pour corriger cela : "The
Locator/ID Separation Protocol").
Pour l'expliquer en termes simples (sous contrôle de Kavé Salamatian)
on peut dire que l'identification des applications se fait par rapport
la localisation des machines, le TOUT formant un unique réseau
interapplicatif - on mélange information et communications, ce qui
pour moi est affreux car ce faisant on se cache totalement ce que
j'appelle intellition (l'extraction de ce qui fait sens dans
l'information communiquée : information implicite) et donc ce
qu'apporte la couche six OSI (MichelElie?) : intelligence, sécurité, linguistique.
Ceci est bien défini :

1. dans le projet Internet de Vint Cerf (IEN 48) qui vise (1) à
implémenter l'architecture Cyclades sous TCP/IP et (2) à copier la
versatilité technologique de Tymnet - qui a ensuite été ma partie
avant que le militaro-industriel ne le bloque par la politique du
"status-quo". Je vais y revenir.

2. Dans la définition des termes fondamentaux de la normalisation IETF
de l'internet qu'elle définit comme :

"A large, heterogeneous collection of interconnected systems that can
be used for communication of many different types between any
interested parties connected to it.

The term includes both:

  • the "core Internet" (ISP networks)
  • and "edge Internet" (corporate and private networks, often connectedvia firewalls, NAT boxes, application layer gateways and similar devices).

The Internet is a truly global network, reaching into just about every
country in the world."


Les trois réseaux

Nous avons donc bien deux niveaux du réseau: ce qui se passe de bout
en bout pour transporter des datagrammes. Ce qui se passe de "frange à
frange" (RFC 1958 sur l'architecture internet) c'est à dire TOUT ce
qui n'est pas de bout en bout et qui trans/supporte en fait des
cortèges (JM Borde) d'"intelligrammes". TOUT se joue là.
Le problème est comme d'habitude: "à mal nommer les objets ont fait le
malheur du monde" (Camus)
Il y a en fait deux réseaux superposés dans un même projet : Cyclades
et Tymnet. L'idiot est que nous nous sommes rencontrés en mai 1978
pour coopérer, mais Giscard avait coupé les vivres à l'INRIA qui a
fermé Cyclades en octobre, après qu'en juillet Vint ait publié son
projet Internet avec les sous d'ARPA, et qu'en septembre au SICOB
France Télécom ouvrait Transpac avec son application "web": le Minitel
- où on a à la fois géré les hyperliens et le micro-paiement (pas de
pub, neutralité assurée).
Dans le contexte Internet il est plus simple de les nommer -
"internet" et "intersem" (internet sémantique) en ajoutant ce qui
manque à l'internet à travers la couche présentation (Michel Elie)
implémentée sous le contrôle de l'utilisateur (ce qui permet de parler
de "presentation layer on the user side") "PLUS" et donc d"'interplus"
pour le réseau des échanges au niveau de cette couche.

  • internet
  • interplus
  • intersem

  • La conception juridique

    Ceci est tout à fait cohérent avec la terminologie
    juridique/historique américaine qui influence/conditionnel le droit
    mondial, en sachant que le RU (sous Thatcher) a été le premier à
    adapter à son système légal. Son évolution actuelle est donc très intéressante.
    Nous avons donc les "strates" (pour éviter de rentrer dans le détail
    des couches):

  • électriques, de prise à prise, les services de base, analogiques
  • (télécoms) et trames binaires (datacoms).

    • logiques :
      • de bout en bout (couches 1 à 5 + bouts de 7 [mail, DNS, etc]), les
    services à valeur ajoutée qui transportent les paquets/datagrammes. Internet.
    • de frange à frange (couche 6 et 7+ - le modèle OSI ne compte que
    sept couches, j'utilise un modèle correspondant à Tymnet qui utilise
    six couches supplémentaires). Interplus.
    • sémantique : on sort du logico/mathématique pour rentrer dans
    l'intelligence sémantique. Mon intersémiotique. Le "psy à psy".
    Il faut bien comprendre que cette découpe est légalement nécessaire
    car elle est intellectuelle (donc liée aux actes humains) alors que la
    découpe des législateurs actuelle est physique (bande passante,
    prises, processeurs, disques). Cette découpe est logiquement absurde
    MAIS réaliste dans le contexte de la confusion
    "Localisation/Identification" (Loc/ID).

    Le problème de souveraineté

    Ce qui est en train de se passer est l'extension multinationale de la
    souveraineté digitale. On quitte Westphalie : conflit entre le
    "cessible" (sol, machine, lignes, immeubles, droits, etc.) et
    l'"accessible" (virtualité, logiciels, données, transferts, etc.).
    Google est devenu un Etat virtuel multinational. Cette virtualité a
    deux bases actuelles : l'adresse IP qui correspond au Loc/ID et le
    nommage qui correspond à l'ID/service, identification du service.
    Ce qui se passe est la lutte désespérée des USA, de l'ICANN, des
    politiques qui n'y comprennent rien mais à qui l'image techniquement
    rocambolesque des "13 serveurs racines" parle (c'est un mensonge
    encore plus gros que les armes de destruction massive de Saddam) pour
    garder la main sur l'ID/service par l'intermédiaire du contrôle du
    Loc/ID pour le bien des marques.
    Comprenons. Avant un des G8 du début du siècle il y a eu une réunion
    des grandes entreprises (comme lorsque Sarko en avait convoqué une sur
    l'internet). La question posée était quelle est pour vous la priorité
    pour le développement économique et commercial. La réponse avait été
    "la protection des maques", identification des produits "surs" dans la
    tête des gens (sémiotique des marques). Lorsque les noms de domaine
    sont apparus il a fallu les contrôler. Nous avions eu le problème en
    novembre 1978 pour régler le problème des noms racines (aujourd'hui
    les TLD) et en particulier "UK" qui aurait du être "GB". J'ai alors
    fait prévaloir la norme ISO 3166 (les ccTLD). Le problème était qu'il
    n'y a pas de codes Lettres pour les 34 classes de marques. Il a donc
    eu le besoin de créer des TLD spécialisés en plus des TLD des grands
    réseaux (COM est Tymnet, NET est Telenet, ORG est "les autres"). Il a
    fallu les lier à une protection : ICANN en accord avec l'OMPI et
    l'ICANN avec les RIR (registres internet qui distribuent les
    adresses). Le tout sous le contrôle du NTIA remplaçant nos licences
    initiales de la FCC de 1977 et la suite pour interfacer les monopoles
    nationaux.

    La compréhension légale américaine

    La définition légale américaine de l'internet ne rentre pas dans les
    mêmes considérations. Son problème est la transition du service
    universel (donc régulation de protection par le code des
    Communications "enforcé" par la FCC vu le nombre des opérateurs locaux
    malgré le petit nombre d'opérateurs nationaux ATT, GTE.) vers les
    nouvelles formes de bande passante (plus de bande passante :
    satellite, radio; meilleure utilisation: commutation de paquet) à
    partir de l'apparition de Telenet en 1974 qui s'est trouvé en
    compétition avec Tymnet (services d'ISP facturé depuis février 1972).
    La FCC a suivi les auditions au Congrès.

    1. la notion de compétition Tymnet/Telenet a paru être une solution
    d'autorégulation acceptable chacun étant soumis à la tarification
    identique des lignes louées. Cette notion de compétition a été dès
    1978 quasi unanime comme solution d'avenir permettant la dérégulation
    que voulaient les grands.

    2. la nécessité d'une différenciation entre les opérateurs anciens
    ATT, etc. et nouveaux Tymnet, etc. qui utilisaient leurs services. La
    notion d'opérateur à valeur ajoutée (VAN) est alors apparue.qui
    permettait une législation à deux vitesses. Cette notion s'est affinée
    sous le terme "enhanced services" dans le code des communications de
    1996, en opposition au terme "extended services" que j'avais introduit
    pour Tymnet. Toute la différence est là:

  • enhanced comprend les services des "edge providers" (cf. définitionde l'Internet) donc offert *sur les ordinateurs* dont cela devient
    la fonction principale (Web, Apps, services)
  • extended est limité aux services de la couche six non implémentéesur Internet, qui assure une interface, une barbacane, intelligent
    entre le réseau et l'utilisateur. Ce qui est alors légiférable est ce
    qui relève de la communauté et non de la personne privée.

  • Le pourquoi du comment actuel

    Dans la réalité des faits pourquoi la notion de séparation a-t-elle
    disparue et la couche six non implémentée ? En raison des limitations
    de TCP/IP par rapport à Cyclades (qui est le bon modèle de TCP/IP) et
    surtout Tymnet qui est différent.
    Sous Tymnet le réseau est une entité autonome qui apporte les données
    finalisées (les tracta) sur la prise d'une porte réseau du réseau ou
    un modem que l'on va connecter par un câble ou un modem à la porte
    réseau d'une machine (connexion serveur) ou d'un autre réseau
    (gateway). Les machines réseau sont intelligentes et peuvent donc
    exécuter les intelligrammes des cortèges de capta reçues de l'origine
    de la connexion ou d'autres machines participants au traitement des
    data envoyées. Exemple : j'envoie un mail disant que j'arrive au train
    de "$heure-d'arrivée-du-train". Cette heure sera demandée à
    l'ordinateur de la SNCF et tenue à jour en cas de retard. Bien
    entendu, tout cela peut être assuré par des machines incompatibles
    entre elles dont les machines du réseau vont assurer la compatibilité
    en utilisant leurs métadonnées (format, technologies, etc.).
    Ceci est TOUT ce que ne VEUT pas le projet ARPA ! Ils veulent un
    système hiérarchique militaire sous un système robuste unique avec un
    seul format, en clair. La protection est au niveau de leurs
    applications qui traitent déjà bien d'autres formes de messages. Ils
    ne veulent pas que des Talibans viennent ajouter des commandes de tir
    parasites ! Donc, dès la mise en ligne d'Internet (1.1.1983) ils ont
    acheté Tymnet (McDD?) l'ont étudié, ont étudié ses interfaces avec les
    standards de l'UIT (X.25/75) etc. et se sont solidement établis dans
    le "SuperUser?/UNIX/IP". Ceci leur a donné la sureté du réseau qu'ils
    voulaient et pas la sécurité dont ils ne voulaient pas dans le réseau.
    Moins le réseau était sécurisé, plus il était facile de déceler les
    intrusions et de les espionner. Ensuite, lorsque leurs ennemis
    potentiels, les concurrents et tout le monde est venu sous leur
    technologie passoire, ils ont utilisé ...

    La situation actuelle

    Ce qui se passe aujourd'hui est qu'ils sont dans une impasse
    technique. Elle vient de ce qu'ils ont voulu bloquer : Tymnet vient en
    force. D'autres technologies, d'autres architectures, d'autres niveaux
    de virtualité, d'autres topologies du réseau viennent en force, ainsi
    que leur utilisation intelligent par les gens (ce que j'appelle
    l'Intelligent Use dont je suis sensément le coordinateur méchant [et
    sans grand moyen] à l'IETF (IUCG@IETF). Le contrôle des noms par les
    adresses IP qu'ils contrôleraient via l'ICANN c'est fini. Par ailleurs
    politiquement ils se sont mis en sacré minorité avec le RU,
    l'Allemagne etc. (la France s'est abstenue) pour le traité mondial des
    télécommunications (WCIT, Dubaï, 14 décembre 2012) face aux BRICS
    (sauf l'Inde qui négocie).
    Ils nous ont fait le "coup du régicide américain" (quand il faut
    appeler la nation en danger, ils tuent le "roi" (ou en utilisent la
    mort) let en profitent pour se ressouder et pour se réorganiser tous
    ensemble - Guerre contre Cuba, Pearl-Harbour, Kennedy, Mogadiscio,
    9/11). Cette fois-ci cela a été Snowden. Le budget NSA/USCC
    (Cyber-Command) a triplé (sixième budget militaire mondial) et très
    astucieusement ils se dégagent du protectorat exercé par le NTIA
    (branche exécutive) sur l'internet, pour le coloniser par son
    transfert sous juridiction "ordinaire" comme par hasard américaine vue
    l'implantation de ses organismes leaders.

    La réseau multipartieprenant
    Ceci se fait dans le cadre du "multi-stakeholderism" étudié sous
    financement State-Departement, Google, Banque du Canada, etc. par GSN
    à l'initiative de l'ISOC dont j'ai parlé hier ( http://gsnetworks.org/)
    comment tenir face à la polycratie de la multitude mondiale par une
    stratégie de gouvernance entre entités influentes cooptées.
    Il y a dix ans la Mission de l'IETF était que l'internet marche mieux parceque

    "The IETF community wants the Internet to succeed because we believe
    that the existence of the Internet, and its influence on economics,
    communication, and education, will help us to build a better human society."

    Aujourd'hui sa mission (ma structuration "exécutive" de sa description
    narrative) est :

    « "to contribute to the economics of global markets fueled by
    technological advancements, in driving a global deployment of
    standards developed through an open participatory process and
    voluntarily adopted globally that support interoperability and foster
    global competition regardless of their formal status, serve as
    building blocks for products and services targeted at meeting the
    needs of the market and consumer, and thereby drive an innovation that
    in turn will result in the creation of new markets and the growth and
    expansion of existing markets."


    Vous voulez participer ?

    Ceci est "discuté" (le but est de faire accroire à un consensus pour
    le status-quo) sur la liste de discussion IANAPLAN@IETF que TOUT le
    monde peut rejoindre (l'IETF est ouverte à tous) et qui est documentée
    sous https://datatracker.ietf.org/wg/ianaplan/charter/.
    Pour qui veut. C'est simplement l'application de TPP, TAFTA, etc. via
    un internet colonisé.
    Ma réponse est double :

    1. changer le contexte de l'internet qu'ils tentent d'imposer. Assez
    simple dans l'idée, du travail dans la pratique. Un "MYCANN Plug-in"
    qui permette à chacun de se transformer simplement en sa propre ICANN
    pour gérer son "VGN" virtual glocal network (la vision mondiale du
    réseau de ses moyens contrôlés en local).

    2. exposer publiquement le biais de tout cela par une procédure
    d'appel retardant tout le processus en exposant l'incohérence de
    vouloir continuer coûte que coûte comme avant pour faire plaisir au
    gouvernement et à l'industrie américains alors que ceux-ci font tout changer.

    At 12:53 13/10/2014, Guinchard, Audrey wrote:
    > Au Royaume-Uni aussi les metadonnées sont mal protégées. Le raisonnement
    > de la loi de 2000 (RIPA) était que ces données ne donnaient pas accès à la
    > vie privée de l¹individu et donc n¹avaient pas besoin d¹être autant
    > protégées que celles relatives au contenu des correspondances. C¹est bien
    > sûr une erreur fondamentale et la distinction, tant à l¹échelle nationale,
    > qu¹à l¹échelle européenne et internationale, doit disparaître.

    Il faut alerter aussi sur le fait que dans le contexte "technique" des
    données + métadonnées, ce que l'on cherche ce sont les syllodonnées,
    c'est à dire les liens entre elles - c'est à dire par exemple les
    opinions, les sentiments, les faiblesses, etc. C'est donc plus que
    privé, c'est au cœur de l'intime.
    La notion qui est sans doute à promouvoir est le secret privé/intime.
    Nul ne peut devoir s'accuser lui-même, c'est pourtant ce que met en
    place la mécanique sociétale.
    La notion de base qui peut faire comprendre et qui devrait être
    étudiée dans la loi est celle de noogitiel (brainware) c'est à dire
    l'utiliser du software et du hardware par le libre arbitre personnel
    et collectif.

    > Pourquoi a-t-on pensé cela à l¹époque? Plusieurs explications sont
    > possibles: les parlementaires et juristes n¹ont pas compris la technique,
    > ce que les informaticiens pouvaient faire (y a t-il eu même dialogue?);
    > plus cyniquement, on peut se demander s¹ils voulaient comprendre.

    Il faut être honnête : personne ne comprenait vraiment et nous sommes
    loin de comprendre. Pour moi des concepts fondamentaux
    (architectonique, agorique, intellition, métaduction, syllodonnées,
    polynymes, complexité, mécalangues, singularité, entéléchie, énaction,
    péritème, etc.) sont nécessaires pour décrire ce dont il s'agit. Pour
    ceux que je n'ai pas forgés qui est d'accord sur leur sens ? Nous
    sommes dans l'émergence d'un monde nouveau.
    Nous avons beaucoup déjà fait. Le droit français (précaution,
    protection future, effet posthume, droit à la santé, etc. sont des
    avancées complexes et porteuses que je côtoie), le rôle de
    l'informatique (et de sa métaphore) dans la loi et la justice, etc.
    sont des choses d'avant-garde au col de la saillance que nous franchissons.
    > Je m¹explique: PRISM c¹est la continuité du programme Echelon/five eyes
    > qui a commencé fin des années 1980. Le Parlement européen en juillet 2001
    > a reçu le rapport échelon/ECHELON sur la surveillance massive des citoyens
    > par les USA, le RU, Australie, Nouvelle-Zélande et Canada. Le rapport est
    > très clair et entre autres, somme le RU de s¹expliquer sur ce programme.
    Oui. Mais c'est normal.

    1. quand je vais sur un chantier de construction, je mets un casque et
    des lunette pour y voir dans la poussière.

    Qui ne voudrait son Personal Reality information System Monitor?

    2. Nous sommes en guerre. Seulement cette guerre
    n'est plus mondiale (géographique) mais globale (sens français de la
    somme des parties supérieure au tout). Elle est normative,
    industrielle, financière, etc. et de temps en temps sanguinaire.
    Il est du devoir des Etats de nous défendre (on les paie pour cela).
    La souveraineté est la légitimité de la violence. La violence
    d'aujourd'hui s'étend au cérébrique naturel et artificiel.
    > Le Parlement européen approuve le rapport le 5 septembre 2001. Le 9
    > septembre, les twin towers sont détruites. La suite, nous la savons tous:
    > légitimation de programmes de surveillance massive, y compris de la
    > directive sur la rétention des données mentionnée plus tôt et aujourd¹hui
    > illégale selon la Cour de justice européenne..

    La stratégie du régicide. En mathématique/physique c'est le processus
    naturel d'auto-organisation critique (Per Bak) [formation des tas de
    sable dans les sabliers, avalanches, tremblements de terre, guerres,
    évolution).
    C'est là que les mathématiciens deviennent intéressants (Poincaré,
    Chaitin, etc.) nous utilisons le chaos déterministe fractal à notre
    avantage au lieu de tenter de le stabiliser. C'est cela le propre de
    l'homme : pouvoir influencer le possible des choses en
    influençant/manipulant nos propres possibles.

    > Résultat en Angleterre? Je vous le donne en mille: les trois partis se
    > sont mis d¹accord pour passer la loi dite DRIP qui modifie RIPA en juillet
    > 2014 Š pour mieux continuer le programme de surveillance massive!!! Avec à
    > la clé une redéfinition des télécom: les télécom désormais se sont toutes
    > les machines connectées à un réseau internet/télécom. Génial non? Cela
    > vaut le coup de relire 1984 de Georges Orwell.

    C'est la digisphère. Pour l'instant nous la voyons sous la forme des
    machines. Mais intrinsèquement c'est notre attrait pour la granularité
    du réel que notre perception nous présente comme des continuités mais
    dont nous devons ou sommes friands de jouer sur les discontinuités
    porteuses d'autres sens.
    C'est un nouveau jeu de dimension des choses (nous avons appris le
    temps comme quatrième dimension il y a un siècle). Nous sommes dans un
    univers de mégadonnées à sept dimensions (hauteur, longueur, largeur,
    temps, données, métadonnées, syllodonnées) et dans une virtualité
    intellectuelle à un très grand nombre de dimensions conceptuelles et
    d'espaces notionnels.

    Notre cerveau (qui est binaire par en dessous) en raffole !

    > Le problème est à plusieurs niveaux: niveau technique où on se demande où
    > l¹éthique est passée,

    Une éthique réclame un référent esthétique. Nous en avons défini un au
    SMSI (sommet mondial pour la société de l'information) : nous peuples
    du monde par nos représentants ... C'est une société qui soit "people
    centered, à caractère humain, centrada en la persona".
    Il faut maintenant le faire accepter par les Gouvernements signataires.
    L'ethitechnique peut y aider. La manière de concevoir la technique
    pour que son utilisation à des fins non-éthique soit plus coûteuse que
    le résultat escompté.

    > Le problème est à plusieurs niveaux: niveau technique où on se demande où
    > l¹éthique est passée,
    C'est ce que j'expérimente sur un point de droit familial/sociétal :
    le principe de précaution d'applique aussi à l'innovation juridique et
    la constitutionnalité peut s'établir en continuité par les citoyens
    eux-mêmes, qui se trouvent face à son approfondissement cohérentiel et
    à sa reconnaissance.

    > niveau politique où les politiques n¹ont aucun
    > courage (parce que les droits de l¹homme ce n¹est pas seulement un
    > programme juridique c¹est une pensée philosophique et politique),

    L'apparition de la digisphère et de la précaution réclame une
    architectonique étendue aux capacités citoyennes nouvelles. Cela
    implique le besoin d'un Archonte nouveau : l'archonte architarque car
    il ne s'agit plus seulement d'aménager et de gérer l'intérieur et
    l'extérieur de la cité, mais aussi l'ultérieur.

    > niveau
    > citoyen où les trois quarts des gens ne comprennent rien à ce qui se passe
    > non pas parce qu¹ils sont idiots mais parce qu¹ils n¹ont aucune
    > information réelle et intelligible et que la technologie les dépasse parce
    > qu¹elle ne leur a jamais été expliquée

    C'est le problème premier. Kavé Salamatian est ici une des réponses
    par son souci de la science universitaire de la connaissance (pas de
    la construction) de l'internet. Le grand problème technique est qu'il
    y a 8.000 RFCs dans le désordre et pas un "Livre de Référence de
    l'Internet" tenu à jour.
    Personne ne maîtrise l'internet. C'est pour cela qu'il faut travailler
    au niveau architectonique. Mais là des architectures possibles ou en
    développement apparaissent étendant la complexité pour chacun.
    C'est donc à une autre manière de penser qu'il faut faire appel. Nous
    avons cru que la terre était le centre du monde, puis le soleil. Nous
    en sommes à être nous-mêmes, chacun de nous les centres de nos mondes
    respectifs opérant en coopétition.

    > À quand un article quotidien dans
    > le Monde expliquant la base sans trop de langage technique et avec des
    > mesures concrètes?

    Je crois qu'il faut commencer par la philosophie du monde actuel
    expliquée à l’école.

    Notre monde est un monde où nous avons construit la machine à notre
    image et où nous l'accueillons. Il convient maintenant, si nous
    voulons qu'elle nous facilite la vie et ne nous asservisse pas, de lui
    expliquer un monde où elle est à notre convenance. C'est ce que
    j'appelle une architectonie, une modélisation du monde : il en faut
    une pour les machines qui puissent s'interfacer avec les nôtres ....
    Le problème est que nous ne savons pas bâtir les nôtres. Ne serait-ce
    que parce que nous n'en avons ni le langage ni la mathématique. C'est
    l'ambition de Leibnitz. Nous avançons mais il y a encore du travail.
    Pour que les machines nous servent il faut leur dire comment.
    Chaitin reprend l'idée de plusieurs qu'il y a deux logiciels : le
    naturel de l'ADN et l'artificiel des machines et tente d'apprendre sur
    l'un et pour l'autre de leurs comparaison/convergence.

    > Et les juristes se doivent de parler aux techniciens et
    > vice-versa: chacun doit prendre ses responsabilités.

    Le droit est comme le langage un protocole entre des eccéités. Elles
    sont humaines dans le cas du droit. Elles sont des machines dans le
    cas des techniciens. Dans les deux cas l'on traite de membres de la
    société anthropobotique que nous avons créée et que nous construisons
    avec de nouveaux outils, un peu plus autonomes.

    > Aucun acteur du scénario n¹a de pouvoir seul: ni les CNIL, ni les parlementaires, ni les
    > citoyens, ni les techniciens. C¹est ensemble en réseau. Ca sonne peut-être
    > comme un vrai slogan politique minable, mais l¹histoire montre qu¹un
    > changement fondamental n¹a été obtenu en isolation.

    Ce n'est pas un slogan politique. C'est la réalité. En fait c'est la
    complexité de la réalité que l'on ne peut comprendre qu'avec une
    approche agorique c'est à dire pôlylectique maillée. Tout depend de
    tout - mais pas uniquement deux à deux, chacun à tous.
    Y compris les effets et les causes. C'est cela que nous apprends EPR
    http://en.wikipedia.org/wiki/EPR_paradox (Einstein, Podolsky, Rosen).
    L'effet peut précéder la cause.
    Si l'on n'accepte pas cela on ne peut pas être juste. Chaque délit
    d'un délinquant participe du contexte social dans lequel il vit, qui
    dégrade sa vision éthique qui l'a incité à ce délit.

    > Bon je vous lis depuis août et merci pour ces discussions qui enrichissent
    > mon vocabulaire (j¹ai dû reprendre le dictionnaire, même si le français
    > est ma langue maternelle) et ma pensée de juriste à cheval sur deux
    > mondes: le continent européen et les anglo-saxons (malgré des différences
    > profondes entre le RU et les USA, les deux se rejoignent sur les grandes
    > lignes).

    C'est en cela que la normalisation ISO bilingue est une bénédiction.
    Les génies de l'anglais et du français pourtant proches par
    l'histoire, la racine des mots, le niveau des concepts sont deux
    manières de penser (déduction américaine, induction/abduction
    anglaise, métaduction française);
    Ce sont des apports complémentaires pour nous aider à les réduire en
    une sémantique agorique que les machines en réseau (sylloduction)
    pourront nous apporter.
    Merci pour ce vagabondage utile à la réflexion.

    - - -
    Catégorie : Billets (externe)
    Ajouter un commentaire à cette page: