Powered By Blogger

Rechercher sur ce blogue

Aucun message portant le libellé Web Bot. Afficher tous les messages
Aucun message portant le libellé Web Bot. Afficher tous les messages

mardi 22 novembre 2011

Déja les 4 degrés de séparation, sont a Facebook !

C'est désormais établi - Facebook a rétréci le monde
 
© Shutterstock

NEW YORK - Le réseau social sur internet Facebook, qui réunit désormais plus de 10% de la population mondiale, semble avoir rétréci le monde, en ramenant à 4,74 en moyenne les degrés de séparation entre deux individus, au lieu des 6 degrés communément admis depuis les années 1920.
«Le monde est encore plus petit que nous le pensions», écrivent cinq chercheurs (Lars Backstrom, Paolo Bodli, Marco Rosa, Johan Ugander, Sebastiano Vigna) dans une étude référencée par Facebook, qui y a collaboré.
Selon une hypothèse formulée pour la première fois dans les années 1920, n'importe quel individu peut être relié à n'importe quel autre par une chaîne de relations individuelles de six personnes.
Cette théorie s'appuie sur les travaux de Stanley Milgram et Jeffrey Travers, qui avaient demandé dans les années 1960 à 300 personnes vivant dans le Nebraska de faire parvenir une lettre à quelqu'un à Boston par l'intermédiaire de connaissances. Un ami représentait un degré de séparation, l'ami d'un ami deux degrés, etc... Les lettres parvenues à leur destinataire avaient franchi en moyenne 6,2 degrés de séparation.
La théorie des six degrés n'a jamais été considérée comme scientifiquement valable, mais elle a inspiré notamment une pièce de théâtre et donné son nom à une organisation caritative. En 1995, le film «Six degrés de séparation» mettait en scène Will Smith, un jeune homme se faisant passer pour une connaissance des enfants d'un riche marchand d'art interprété par Donald Sutherland.
En 2008 une équipe de chercheurs travaillant pour Microsoft, étudiant 30 milliards de messages instantanés envoyés par 240 millions de personnes en juin 2006, avaient établi qu'en moyenne, deux personnes peuvent être reliées en 6,6 étapes.
L'étude ayant bénéficié cette année du concours de Facebook montre quant à elle que 99,6% des utilisateurs du site peuvent se connecter avec un autre internaute, via des connaissances, en cinq étapes étapes seulement, et 92% en quatre étapes.
Pour Facebook, «même quand on pense à l'utilisateur de Facebook le plus isolé de la toundra de Sibérie ou de la jungle péruvienne, un ami de votre ami connaît probablement un ami de (son) ami».
«Quand on limite notre analyse à un seul pays, qu'il s'agisse des Etats-Unis, de la Suède, de l'Italie ou de n'importe quel autre, on découvre que le monde est encore plus petit, et la plupart des gens n'ont que trois degrés de séparation», a ajouté le site.
«Et avec la croissance de Facebook au fil des ans, conduisant à ce que (le site) regroupe une part toujours plus importante de la population mondiale, celle-ci est devenue régulièrement plus connectée», explique le site internet, qui voit ainsi validé l'un des principaux arguments invoqués pour affirmer son utilité. Cette étude, réalisée en début d'année, a porté sur les relations entre 721 millions de membres de Facebook, et 69 milliards de liens d'«amitié».
Cette proximité est facilitée du fait que les utilisateurs de Facebook, bien loin d'être de véritables «amis» dans la vraie vie, souvent se connaissent à peine ou même pas du tout, pour peu que ce soit le site qui leur ait conseillé d'entrer en contact, au vu justement de leurs connaissances communes. En réalité, les internautes ont bien plus de connexions de proximité que de contacts avec des gens vivant à l'autre bout du monde. Au quotidien, «la plupart de mes amis vivent aux Etats-Unis, et ceux dont je suis le plus proche habitent à quelques kilomètres de chez moi», note le responsable de Facebook ayant résumé l'étude sur le site.
Ce qui rend le site paradoxalement à la fois très vaste et extrêmement concentré, 84% des liens d'«amitié» réunissant des utilisateurs se trouvant dans le même pays.

REF.:

mardi 17 novembre 2009

Le projet Web Bot :

WEB BOT PROJECT : LES SITES OFFICIELS …

Pour y voir un peu plus clair, à la suite de demande répétées d’internautes cherchant des infos à propos des sites officiels des Web Bots, je vais fournir ici les liens essentiels à connaître pour comprendre cette affaire…
Pour commencer, le projet Web bot est né d’une rencontre entre George Ure et "Cliff"
en Juillet 2001
Ils sont tous les 2 webmasters de leurs sites officiels respectifs :

Urbansurvival.com : site de George Ure
-page d’introduction : http://www.urbansurvival.com/simplebots.htm
-page sur la crise économique : http://www.urbansurvival.com/bot4.htm
-sur les modèles de prédiction : http://www.urbansurvival.com/tip.htm
on trouve sur son site un pdf comprenant un aperçu des prédictions pour
2008-2009
http://urbansurvival.com/c2csnotes20080102.pdf

Halfpasthuman.com : site prédictif du dénommé "Cliff" basé sur les techniques ALTA (Asymetric
Language Trend Analysis) et ses "Calamitous Web Bot Predictions" pour 2008 2009.
C’est lui qui propose des rapports sur abonnement, 280 $ pour une première
souscription, 70 $ la suite…
http://www.halfpasthuman.com/NuHPHWhatWeDo.htm

On trouve des biographies de ces 2 protagonistes du projet Web bots (Ure et "Cliff") sur le site coasttocoastam.com
-Bio de Cliff : http://www.coasttocoastam.com/guests/1478.html)
-Bio de George Ure : http://www.coasttocoastam.com/guests/711.html
ainsi que quelques une de leurs plus fameuses prédictions

Des prédictions peuvent aussi être trouvées sur le site de Steve Quayle : stevequayle.com en cherchant ‘web bots’ dans le moteur de recherche…

J’espère que c’est plus clair pour tous maintenant même si il faut admettre
que leurs sites est loin de l’être au niveau de la facilité à rechercher des
informations chronologiques et objectives…

VTERNET TV

VTernet TV, une web tv indépendante. Ils ont traduit pour vous le rapport officiel des Web bots et le propose pour 10 Euros en pdf… Une version résumée est présentée en vidéo sur Dailymotion ainsi que leurs analyses.

L’ANALYSE DE NEOTROUVE

Il existe actuellement 2 projets différents pour analyser la fluctuation de l’émotion globale de l’humanité à l’aide d’ordinateurs.
- le “Global Consciousness Project” qui tire des conclusions en fonction de l’analyse des flux de nombres aléatoires
-le projet WebBot qui scanne la “conscience” (ou “l’inconscient collectif”) de l’humanité sur le Web.

A l’origine projet WEB BOT, qui a été lancé pour prédire les cours de la bourse, à fait parlé de lui. Les données recueillies auprès des WebBot ont été utilisées à l’origine sur les marchés financiers où la cupidité et la peur des masses est appelé à conduire la volatilité des prix. Le principe du projet WEB BOT est de lancer un tas de « robots » passant le web au peigne fin. Les concepteurs ont fait le paris suivant : En faisant un balayage systématique du web, ils comptent obtenir un résumé de l’inconscient collectif, et par la même occasion, une vision de l’avenir.
Cet outil est censé pouvoir de prévoir l’avenir sur le Web en se fondant sur les habitudes de navigation concernant les informations. Le WebBot conceptualise un futur modèle de comportement sur la base des nouvelles récentes et psychologique des requêtes des masses. cela peut pour certains ressembler être un type de l’IA (intelligence artificielle). Les WebBots ont prédit certains événements avec un niveau de précision qui méritent un examen sérieux.
Ils ont déjà fait leurs preuves en août 2004, où ils ont prédit un grand tremblement de terre accompagné de vagues dévastatrice qui ferait 300 000 morts. Le tsunami à frappé en décembre 2004. La coupure de courant général sur la cote ouest des États-Unis en 2003, les ravages de l’ouragan « Katrina » en 2005. Plus étonnant encore, en juin 2001, ils ont prédit que dans les 60 à 90 jours suivant, se produirait un événement qui allait changer la vie des Américains. En Septembre, deux avions frappent les deux tours jumelles du World Trade Center. Pour l’avenir, les Web bots nous prévoient une guerre nucléaire de courte portée courant 2008-2009 …
Comment fonctionne cette machine ? Le ‘Webbot’ est une des techniques pour faire du “Web Scraping” (il y en a d’autres). En gros, c’est un programme qui fait de l’extraction de contenu en visitant les sites Web. II fonctionne un peu comme un robot de moteur de recherche et va fouiller dans les groupes de discussion, sites personnels et ceci en plusieurs langues…
Le WebBot se concentre sur certains mots et à partir de ce point central, il met se mot en corrélation avec l’information universelle afin de quantifier ce mot par rapport à d’autres mots. Si la machine ne fait que se programmer elle-même, d’après les informations sur le Web alors comment ces décisions peuvent prendre effet effet la société car comme nous le savons l’Internet est remli d’erreur.
Peut-être que dans un monde futur Internet ne sera plus un domaine public, ou peut-être le domaine public ne seront pas disponibles à une machine qui est capable de programmer lui-même.
Comment de fait devrait être l’information pour le robot pour faire une saine des décisions sans avoir une saine programmeur en charge. Il a ses moments de brillance, mais en fin de compte, il est déjà corrompu avec moins de données précises.
Pour ceux que ça intéresse sachez que le développement des droits à la technologie du Web Bot a été vendu à une société a été vendu à une société du nom de EbrainSpeed…
Les données recueillies à l’occasion approchent les 100 Go la taille des échantillons et nous pourrions ont utilisé des téraoctets. Les données recueillies a ensuite été filtrée, l’utilisation d’au moins 7 couches de traitement linguistique en langage Prolog. (le langage de l’intelligence artificielle)
Les données recueillies sont ensuite filtrées et ramené à des numéros et puis en résulte une série de carte de dispersion des parcelles sur de multiples couches IntelliCAD puis on analyse sur une période de temps donnée, le diagramme de dispersion des points et la tendance de ces derniers à se structurer en zones très concentrées. Chaque point sur le diagramme de dispersion peut représenter plusieurs centaine de mots.
Pour définir un sens à cette analyse, des mots ou groupes de mots doivent être réduits à leur essence. Le processus est comme une recherche du “plus petit commun dénominateur” entre les groupes de mots.

Le noyau de la technologie est donc de voir comment les nuages de points se condensent en “haute densité”, zones que nous appelons «entités» et on observe leur diffusion dans le temps en fonction du changement “entités”. Comment se fait la prédiction ? En naviguant de point en point, on obtient une série de phrases.
Sur le site urbansurvival.com on trouve une explication du principe de la technologie “Web bot”

Ce qui est intéressant lorsqu’on est dans ce type d’analyse c’est que parfois on dpoit un peu lire ces phrases sur le mode du I Ching (le livre chinois de l’évolution) parce que la technologie ne pas sortir et de dire “aller chercher une attaque terroriste là-bas” Ce qu’il fait est donne des phrases qui serait associé à la façon dont les gens parlent d’un événement, ou plus exactement, comment ils changent leur discours à tenir compte de leur processus de réflexion en raison d’un événement (après).

Selon les travaux de Dean Radin du “Boundary Institute and the work of the Princeton Global Consciousness Project”, la technologie Web, semble fonctionner comme un domaine de la sensibilisation preconsciente.
Comment fonctionne ce système ?
Le Global Consciousness Project (GCP) est un projet en collaboration internationale, créé en 1998, pour étudier un aspect méconnu de relation de la conscience de l’homme avec le monde physique. Nous avons mis en place un réseau de générateurs numériques aléatoires (GNA) présents en plus de 50 points du globe, de l’Alaska aux îles Fiji, sur tous les continents, et sur la plupart des fuseaux horaires.
Chaque seconde, chaque GNA produit un “essai” constitué du traitement de 200 bit. Ce processus peut être comparé à l’action de lancer 200 fois une pièce de monnaie, le résultat présentant une majorité de pile ou de face.

Un réseau de générateurs aléatoires montre des anomalies de fonctionnement en relation avec des événements touchant des millions de personnes. Ces résultats interrogent l’image commune de notre monde, mais des analyses indépendantes confirment ce comportement inattendu et indiquent qu’ils ne peuvent pas être attribués à la physique ordinaire, ou aux champs électromagnétiques.

Le second point évoqué dans le rapport de Dean Radin est qu’en laboratoire les gens réagissent à un évènement. En d’autres mot si vous devez être confrontés sur un écran à une horrible figure il y a aura des réactions physiques sensible dans les 6 secondes qui précède la projection de l’image.
Dans des termes “quantiques” Radin en déduit que les gens sont capables de percevoir 6-secondes dans le futur.

Il a remarqué la chose suivante au moment des attentats du 11 Septembre 2001

Dean Radin et son équipe ont pu mesurer un formidable changement dans le comportement des générateurs de nombres aléatoires pendant la période précédent l’attaque, tant immédiatement avant celle-ci qu’au moment même ou l’évènement se produisait…

Des nombres Soi-disant générés au “hasard” semblent devenir moins aléatoires immédiatement avant le 9 / 11.
Les données attestent qu’autour du 11 Septembre un changement de la conscience globale de l’humanité a agi sur l’énergie électromagnétique des circuits informatiques dans le monde entier et particulièrement à mesure que l’on s’approchait de l’Amérique du Nord.

Depuis Platon et son allégorie de la caverne, les gens ont le sentiment étrange que les choses tournent au niveau de l’archétype de la conscience. Les robots Web sont une tentative d’utiliser les données à haute densité de l’Internet à l’échantillon de langue et de rechercher l’évolution dans le langage employé qui, peuvent précéder un évènement. Les premiers résultats suggèrent que sur un plan macro-économique ces changements au niveau du langage peuvent se produire 45 à 90 jours avant l’évolution de la société. Sur une échelle beaucoup plus grande que Dean Radin l’avait suggéré dans son pour la première fois dans ses traveaux sur les nombres aléatoires des changements au niveau du language et des mots employés sont observables par l’échantillonnage de routine du trafic Internet.

Ces résultats montrent à l’évidence que le monde “virtuel” et le monde de l’esprit humain sont liés d’une relation synchrone encore inconnue fonctionnant parfois comme un “Vortex”, un tourbillon d’informations concommitantes suggérant des évènements majeurs vers lequel tout semble concorder …
Si l’on considère que le Webbot analyse les informations contenues et donc crées par des millions d’hommes, c’est en analysant le ressentit collectif de l’humanité qu’il détermine l’avenir… Ne vous est il jamais eu des pressentiments ( comme les animaux peuvent en avoir avant un tremblement de terre..) et un calcul de milliard de pressentiment… ca donne quoi ? le webbot…
Nos ordinateurs, si on les considère comme des neurones sur le web, celui ci ressemble vaguement à un gros cerveau, virtuel créé par l’homme, et qu’on peut pas éteindre, il s’autoémule aquérant de nouvelles données en permanence. J’en viens a dire que les Web-Bots semblent percevoir dans une masse informe, une information, une sorte d’émotion majoritaire dans l’ensemble des signaux que s’envoient constamment les cellules (nous même) de la Matrice Terrestre, c’est à dire Gaïa… Il s’emblerait que nous ne soyons qu’au balbutiement de ce type de code extrêmement complexe. Il n’y a qu’à voir comment ont évolué les prédictions météorologiques grâce aux calculs informatiques. On peut imaginer que dans un avenir très lointain, dans un monde entièrement connecté dans une fusion homme machine généralisée, des ordinateurs permettront un degré de prédictibilité beaucoup plus élevé dans l’infinité des possibles nous plaçant alors par calculs ultra sophistiqués comme des spectateurs de ces situations somme toute encore virtuelles. Il faut envisager qu’il existe un jour des ordinateurs “quantiques” capable d’interpréter le futur “quantique”.

Pour revenir à la façon de procéder des Webbots on peut dire qu’elle est extrêmement intéressante car en sondant l’inconscient collectif de l’humanité, elle permet l’expression d’une synchronicité globale à l’échelle de la planète.
Pic de la Mirandole écrivait “qu’il existe une unité dans les choses par laquelle chacune est en accord avec toutes les autres”. Ainsi dans chaque évènement dans la vie d’un être humain on pourrait voir théoriquement la manifestation d’évènement globaux …
Pythagore, lui, prétendait pouvoir expliquer le sens des rides de l’eau provoquées par le vent. Ainsi nous expliquait-on que le soi-disant “hasard” peut composer une lecture de la vie parfaitement organisée où tout serait lié et où rien n’est en fait inutile ou dépourvu de sens pour qui sait lire le grand livre de la vie. Il était donc ici question d’apprendre un alphabet universel et de saisir par les signes encore obscurs pour nous …
Ces recherches (si elles s’avèrent exactes, et nous le saurons bientôt) tendraient à montrer que la théorie de Teilhard de Chardin et Vernadski sur la conscience collective ou noosphère ne serait pas complétement ridicule.
Pour Vernadski il existerait une couche dans la haute atmosphère ou circulerait en permanence une conscience collective…

ESSAI DE REFLEXION SPECULATIVE SUR L’ONTOLOGIE DE LA PROPHETIQUE TECHNO-HUMAINE DE TYPE “WEB BOT”
Pour exister, cette “prédiction scientifique” qui n’est autre qu’une “révélation programmée d’un mythe collectif”, que l’on développe par la technologie le Web Bot, doit se fonder à la fois sur une psychologie et une physiologie sociale (considérer le global tel un être vivant dont nous ne serions que des cellules). Ce concept de physiologie collective n’est d’ailleurs qu’un cas particulier d’écosystème, notion qui s’applique bien au-delà de la sphère terrestre. Mais, si large soit-elle, une telle approche resterait encore purement descriptive. Pour atteindre au stade d’une explication déterministe, il faut également prendre en compte la dimension finaliste (mentale) du système, ce qui n’est guère possible pour l’instant qu’avec notre propre espèce. Dans cette perspective, les seules études convaincantes sur la physiologie générale (stricto sensu) du corps social, à savoir des modèles fondés sur le principe premier du feedback, sont les travaux de sociologie politique sur la participation démocratique (sur l’équilibre entre pouvoirs et contre-pouvoirs) et c’est justement cet élément qui s’avère instable lorsque l’on évoque la fameuse “libération du langage”. Vous aurez donc compris qu’avec la seule vraie démocratie le Webbot ne prévoira que ce que les peuples auront décidé à l’avance. Qu’ils ne vivront donc plus ni dans la peur, ni dans l’angoisse du lendemain.Vous verrez à quel point nous sommes tous manipulés par un systeme qui n’a jamais été démocratique, qui vit sur le dos des peuples et le désordre qu’il seme lui même. Pour ce qui est de la crise financiere, il s’agissait d’une évidence de tournant cyclique propre à l’oligarchie financiere, qui régulierement apres l’enrichissement encore plus massif des plus riches mets les peuples sur la paille.
Au niveau de la sphère sociale on peut par exemple se contenter de décrire l’histoire française de façon purement interne (”physiologique”) en présentant son régime politique comme un système fortement oscillant, alternant gouvernements de droit divin et guerres civiles (195 au total !). Mais, vue de l’extérieur, il semblerait plutôt que notre “démocratie représentative” est un vice moral (global) de notre société. Et comme tous les troubles mentaux, il engendre ça et là (localement) :
- des troubles physiologiques (dans les relations entre organes sociaux, dans ces organes eux-mêmes : gouvernement, entreprises, classes, etc.). La France est ainsi le pays de la Communauté le plus condamné pour atteintes aux droits démocratiques élémentaires
- et des troubles comportementaux (dans les relations internationales). La France condamne bruyamment les pays totalitaires, mais n’agit concrètement qu’en fonction de son intérêt propre immédiat.
Tout cela rejoint bien sur la psyché personnelle et l’on retrouve cette relation entre la psyché individuelle et la psyché collective qui fait aussi l’essence du mythe mais que l’on peut aussi percevoir sur un aspect spatio-temporel ou plutôt rétro-temporel. Tous les phénomènes de prédiction parapsychique sont en fait rétrotemporels (effets psi = négations observables de l’irréversibilité passé / futur, c’est-à-dire du principe de causalité) ; et cet aspect se manifeste couramment (normalement) dans tout activité libre, qu’elle soit consciente ou non.
Par ailleurs, une “psychosomatique” – qu’elle soit individuelle ou collective – ne peut se décrire pertinemment (on traite de significations) qu’avec un temps circulaire. Par exemple, il y a quarante à cinquante mille ans, ce qui serait le début de la nouvelle espèce, l’homo sapiens, on estime que les femmes auraient fondé la culture moderne en corrélant leurs saignements menstruels (phénomènes de synchronisation des règles observé dans des groupes de femmes) et les périodes de chasse du gros gibier par les mâles. Cette “invention” aurait entraîné celle de la conception des cycles du temps (qui inspirent l’exactitude de la prédiction) … Outre que la culture moderne occidentale est entièrement fondée sur la causalité (linéaire), ces femmes n’aurait fait que constater un fait métaphysique, certainement connu déjà des sociétés humaines antérieures et vécu activement par tous les êtres vivants et les écosystèmes. Il faut donc au contraire dénoncer le monisme (notion métaphysique très ancienne qui veut que le monde ne soit formé que d’une seule réalité ou substrat fondamental) biblique et son opposé le dualisme grec, ces mythes qui ont vicié en Occident toute la réflexion ontologique… En intégrant à la fois les ontologies spécifiques qui ont un domaine de validité restreinte et correspondent à l’exécution d’une suite logique et programmée de paramètres, et les ontologies supérieures qui représentent des concepts généraux comme l’espace, le temps ou la matière, on aboutirait nécessairement bien à une ontologie formelle (de type Web Bot) qui serait un développement systématique, et axiomatique de la logique de toutes les formes et modes d’existence …





REF.:

dimanche 15 novembre 2009

La Loi des six degrés de séparation, déja désuète !

Les six degrés de séparation est une théorie établie par le hongrois Frigyes Karinthy en 1929 qui évoque la possibilité que toute personne sur le globe peut être reliée à n'importe quelle autre, au travers d'une chaîne de relations individuelles comprenant au plus cinq autres maillons. Cette théorie est reprise en 1967 par Stanley Milgram à travers l'étude du petit monde. Elle trouve une application en ergonomie dans la règle des trois clics. Elle a été illustrée en 2008 par Eric Horvitz et Jure Leskovec[1], chercheurs chez Microsoft, en analysant des discussions de Windows Live Messenger[2]. Cette théorie peut se démontrer de nos jours avec le site Facebook, qui met en évidence les liens que nous avons avec les autres et les liens que nous avons avec des personnes que nous ne connaissons pas (amis de vos amis).L’Internet permet une révolution sociale dans la constitution de son réseau à l’heure ou tous les foyers ne sont pas encore totalement connectés.


D'ailleur a canal Évasion ,il y a eut l'émission:
Lonely Planet : Six degrés, la série Lonely Planet : Six degrés branche ses téléspectateurs sur les particularités de chacune des villes qu'elle visite et sur les gens qui y vivent. Lonely Planet : Six degrés explore les villes les plus décontractées du monde en échangeant avec ses habitants. En insistant sur la dimension humaine du voyage, cette série va au-delà de la visite guidée et séduit le téléspectateur en le transportant au cœur de l'action. Soucieuse d'éviter les attractions touristiques typiques, chaque expédition préparée par Lonely Planet : Six degrés commence avec l'arrivée d'un voyageur dans une nouvelle ville où il n'a qu'un seul contact. De là, se forme une chaîne humaine au fur et à mesure de ses rencontres.

Ou ce vieux Film de 1994:
http://www.space-cinema.com/film/Six_degr%C3%A9s_de_s%C3%A9paration

Microsoft confirme les '6 degrés de séparation' :

La théorie des « Six Degrés » vient à nouveau d'être confirmée, et cette fois, à grande échelle. En effet, depuis juin 2006, Eric Horvitz et Jure Leskovec, deux chercheurs de Microsoft, ont analysé près de 30 milliards de conversations électroniques sur un panel de 180 millions d'utilisateurs de Live Messenger - soit près de la moitié du trafic global des messageries instantanées. L'étude révèle qu'il faut en moyenne créer des liens avec 6,6 contacts avant de pouvoir parler à une personne particulière qui ne figure pas sur sa liste de contacts. Dans 78% des cas, 7 contacts intermédiaires sont nécessaires.

Interrogé par le Washington Post, Horvitz déclare: « J'ai trouvé ça très surprenant. Il semblerait qu'il y ait une connectivité sociale constante pour l'humanité. Si les gens ont toujours eu l'impression d'être proches, nous avons montré à grande échelle que cette idée était bien plus qu'un mythe urbain ».




Un peu d’histoire:
Le premier site web de réseautage social fût Classmates.com qui débuta ses activités en 1995. Selon Wikipedia, Company of Friends, le réseau en ligne de Fast Company, la revue commerciale en vogue de la nouvelle économie, lance peu de temps après, en 1997, en introduisant le réseautage d’affaires sur Internet. D’autres sites ont emboîté le pas, incluant Sixdegrees.com, qui débuta en 1997, Epinions qui introduisit le Cercle de confiance en 1999, suivi par les équivalents européens Ciao, Dooyoo et ToLuna. Ce n’est pas avant 2001 que les sites web, utilisant les cercles d’amis de réseaux sociaux en ligne ont commencé à apparaître.

Cette forme de réseautage social, couramment employé au sein des communautés en ligne, est devenu particulièrement populaire en 2002 et a fleuri avec l’avènement du site web appelé Friendster. Il existe aujourd’hui plus de mille sites de réseaux en ligne. La popularité de ces sites ne cesse de s’accroître. En 2006 Myspace a été plus visité que Google. Le web2 permet aujourd’hui l’échange et l’interactivité d’un site de réseau en ligne faisant exploser l’audimat.
Le principe d’aujourd’hui, orienté Web2 signifie que les visiteurs participent activement au réseau et ne sont plus des lecteurs passifs de pages statiques préalablement élaborés sur une adresse figée


Le pouvoir au sein des cercles et clubs et maintenant des réseaux en ligne relève plus du degré avec lequel un acteur social se positionne au centre de plusieurs relations sociales que dans son titre professionnel effectif.
On évoquait les six degrés de séparation maximum pour toucher l’ensemble de la planète ou la règle des 150 aussi appelée nombre de Dunbar soutenant que la taille d’un réseau social originel est limitée à 150 membres.
La taille d’un village en anthropologie limitait son nombre à 150 basé sur l’incapacité au-delà de reconnaître les membres et à capter les faits émotionnels concernant tous les membres du groupe. L’effet du petit monde propre à son auteur, Stanley Milfgram en 1967, tendait à démontrer que la longueur de la chaîne des connaissances sociales requise pour joindre une personne choisie au hasard à n’importe quelle autre sur terre est courte et ne dépassait pas six degrés. Avec l’avènement des réseaux sociaux d’internet, la chaîne devrait pouvoir diminuer de moitié. Prenez par exemple Linked in, avec un peu plus de trois mille contacts, je peux atteindre en contact +1, c'est-à-dire par l’intermédiaire d’une autre personne, environ 14 millions de ses membres sur un total de 36 millions aujourd’hui dans le monde.

Je recommande les connexions matinales pour prendre le pouls des contacts, évaluer les demandes de transfert de contacts et messages en tout genre afin d’être en relation avec l’Asie entre 05.00am et 06.00am, Viadéo enregistre ses données informatiques à cette heure matinale et sera ralenti, une connexion à l’heure du déjeuner pour montrer une réactivité certaine et le soir pour être en phase avec les fuseaux outre-Atlantique.


De mémoire, début 2008 nous comptions plus de cent millions de blogs, 1.2 million de posts/ jour ; Aujourd’hui, il y aurait environ 30 milliards de site web en ligne. Hier simple observateur, nous devons maintenant devenir acteur.



Les sites en vogue par pays à l’étranger:
Allemagne : Wer-Kennt-Wen, StudiVZ. Angleterre : Bebo. Australie : Bebo. Brésil : Orkut, 30 fois plus populaire que Facebook au Brésil a été crée en 2004 par Orkut Büyükkökten, un ancien de Google, le deuxième site en vogue est Sonico. Chine : 51.com, Xiaonei, Chinaren, Kaixin001.com. Espagne : Tuenti. Italie : Netlog. Japon : Mixi, Lococom puis Kanshin-Kukan. Suisse : Netlog. Pour la France : facebook, Copainsdavant, Myspace en ludique et Viadéo et XING pour le business. Il faut noter que Plaxo éprouve des difficultés pour la compatibilité avec Vista de Microsoft et lorsque au bureau vous n’êtes pas en mode administrateur. Netlog est très populaire en Belgique. Bebo a un taux de pénétration élevé en Irlande. Friendster est très populaire aux Philippines en Malaisie, en Indonésie et à Singapour.
Copains d’avant ou Classmates ont pour but de retrouver ses anciens camarades de classe. Flixster est conçu pour les cinéphiles. D’ou l’émergence de sites à communautés spécialisées.




Explication plus en profondeur:

Actuellement,le 5ime degré de séparation fait toute la différence (car c'est lui qui vous mettra en contact avec le 6ime contact qui lui connait mettons Barack Obama)sauf qu'avec le web 2,0(Facebook),et le futur google wave (du web 3,0),on est rendu a peut-être au 4ième degré ???

Si on essayaient de nommer ou de situer les différents degrés;il y aurait le,
premier degré(inconnu,sinon secret d'État,car il en faut un ),

le 2ième degré serait: Le WebBot;

le 3ième degré: Échelon ainsi que le DSC1000 du FBI.

le 4ième degré: Microsoft (WindowsVista et le nouveau Win-SeVen)avec ses récoltes d'info personnel,car tout le monde a un Windows d'installé,et maintenant Facebook amélioré.

5ième degré: Google et toute sa grande famille d'applications(Google alias "Wave" ,maintenant Google+ pourrait être facilement le web 3,0 du future).

6ième degré Facebook et le web 2,o , qui deviendra le web 3,0 bientôt !(le web 4,0 est déja en test LOL !)

Nota: Mais avec la venu du WEb 3,0 et/ou du web 4,0 ,bientôt,cette loi deviendra certainement la loi du 4ième Degré LOL !!! Et maintenant ,le Facebook amélioré,en dâte du 22 Novembre 2011,a 721 millions de membres pour 69 milliards de liens d'amitié,ce qui le place a 4.74 ,pour les degrés de séparation entre deux individus !


REF.: http://www.evasion.tv/emissions/lonley_planet__six_degres
Clubic, Absolute Trading method,
loi du 4 ième degré ,