Tag Archive for l’après web

Comment manager l’intelligence collective dans une organisation hiérarchique

Une présentation claire et concise de mon ami Olivier Zara, auteur entre autre, de Management de l’Intelligence collective

Consultez l’article source « Entreprise 2.0 Next Generation » d’Olivier Zara
 
 

 

Comments

j’ai hate de lire ce document,

Jean-Pierre

Écrit par : Bouchez | 22/02/2013

Denis Henri Failly

facebooktwittergoogle_pluslinkedin

Le piratage n’est qu’une étape transitoire vers l’équilibre des marchés numériques

L'Après Web
Denis Ettigoffer
Une contribution de Denis Ettighoffer* (3/3)

Le rapport Olivennes est non seulement critiqué en France mais aussi par la Commission Européenne. Les sénateurs français, Dieu merci, semblent vouloir revenir à plus de bon sens en limitant la portée de certaines sanctions. Laisser l’impression que les internautes français sont tous des délinquants en puissance n’a pas été très productif. Les publicités sur Internet, sur les DVD et autres supports ne parlent que de ça. Pour la grande majorité des internautes il n’est pas question de laisser la Toile hors la loi, pas plus que de léser les artistes et les auteurs victimes de la « démarque inconnue ». Mais il n’est pas question non plus d’ignorer la maturité progressive des marchés qui ce traduit pas une croissance de la vente de biens culturels et une diminution relative des pertes pour cause de téléchargements pirates.

Cent cinquante mille dollars pour avoir téléchargé 37 morceaux sous copyright ! Peut‐être le lecteur se rappelle t’il de Whitney Harper, une jeune américaine qui a été traduite devant les tribunaux par la RIAA (Recording Industry Association of America[1]) . Les lobbies de l’industrie musicale avaient demandé à ce que le Copyright Act soit respecté et qu’une peine entre 750 et 30 000 dollars soit infligée pour chaque acte jugé illégal. Comme Whitney Harper était coupable d’avoir utilisé un moteur P2P pour effectuer 37 téléchargements, la note se montait à quelques 150 000 dollars. Le juge n’en accepta que 7400. Whitney n’avait que 16 ans à l’époque des faits. Jugeant cette sentence trop clémente, la RIAA a décidé dans un premier temps de faire appel (sans doute pour en tirer un peu plus d’argent afin de faire face à ses frais d’avocats) ce qui fut largement contesté par l’opinion publique. Du coup, la RIAA a modifié sa position et sa communication en présentant son appel comme une action «éducative ». En réalité, la RIAA a déjà dépensé des fortunes en procès sans grands succès comme dans l’affaire l’opposant à Jammie Thomas[2]. Ces mésaventures peuvent concerner n’importe quel internaute. Elles sont la résultante d’un juridisme très anglo‐saxon exacerbé par une âpreté indécente aux gains.

Si on prête quelque intérêt aux pertes annoncées à l’économie des contenus par le piratage et la contrefaçon ont obtient des chiffres qui donnent le vertige. Elles auraient coûtées quelques 250 milliards de dollars par an aux Etats‐Unis. On ne peut qu’être sceptique face à de tels chiffres. C’est la question que le journaliste américain, Timothy B. Lee, s’est avisé de poser au responsable de la communication de l’organisme américain en charge des infractions sur le copyright. Prudent, ce dernier à indiqué qu’il fallait enlever de ce montant, celui spécifique à la contrefaçon. Plus problématique a été le fait que ce journaliste n’a jamais pu obtenir comment la police fédérale a fait ses calculs et comment elle est arrivé à ce chiffre. Pire, elle n’a pas été en mesure de donner ces sources. En fait notre enquêteur s’apercevra qu’une des seule sources plausibles était un article sur la contrefaçon paru dans Forbes plus de dix ans auparavant (1993). Poursuivant son enquête notre journaliste s’adressera alors à une association (IACC) qui réunit des industriels qui se défendent collectivement contre la contrefaçon. Là, il y apprendra que le chiffre donné était une estimation qui couvrait l’ensemble des marchés mondiaux et pas que les Etats‐Unis. De son coté, l’Institut d’Innovation Politique, un groupe de lobbyistes qui pousse à renforcer encore la protection du « copyright », avance une estimation tout aussi fantaisiste de 58 milliards de dollars de pertes annuelles. Elle est en réalité plus proche de 20 milliards selon Timothy B. Lee[3] qui plaide, comme je le fais régulièrement, pour que les sources et les liens soient disponibles afin de stopper ces exagérations. Des chiffres parfois très fantaisistes courent un peu partout comme, par exemple, le fait que la piraterie sur Internet serait à l’origine de la perte de 750 000 emplois. Au gré de la recherche de sensationnel ces estimations fantaisistes ne rendent service à personne.


Que doit‐on comprendre par « démarque inconnue » ?

L’expression est utilisée dans la grande distribution. Elle recouvre les pertes dues à des vols par des clients et du personnel, des consommations sur place, des erreurs de référencements et des prix marqués, des écarts entre les stocks informatiques et les stocks réels, le tout pouvant représenter des sommes considérables. En 2004, la revue LSA faisait état de 6 milliards d’euros de pertes et 4,6 milliards pour seuls les vols de produits en 2006 selon le GRTB VII. Rapportée à l’idée du piratage sur la Toile, ce pourrait être comparé à ce que faisait nombre de garnements lorsque dans les années 60, ils entraient en douce par la porte de sortie pour voir un film sans payer. Les garnements d’aujourd’hui utilisent internet pour se télécharger des films ou des morceaux de musiques sans payer. Ce qui représente un manque à gagner pour les opérateurs (et les ayants droits de la production). Du coup ces derniers ont tout intérêt à hurler le plus fort possible afin de limiter les téléchargements pirates qui diminue d’autant les droits qui leur seront payés. Ceci dit, ces droits négociés avec les opérateurs tiennent compte du manque à gagner de la démarque inconnue, comme le fait la grande distribution qui répercute sur la totalité des clients la perte constatée. Ce dont, bien sur, on ne parle jamais.

Pour une majorité, pourtant favorable au téléchargement légal, les lois en discussion sont taillées sur mesure pour les éditeurs plus que pour les producteurs et les artistes intervenant dans le processus de création. D’ailleurs, beaucoup sont partant sur des façons différentes de les rémunérer. Le problème est que cela n’arrange pas toujours les éditeurs traditionnels. Au début des téléchargements payants, il n’y avait pas de différence de prix entre un achat CD et les singles (20 en moyenne) proposés sur la Toile à 0,97 euros le morceau. On peut comprendre la mauvaise humeur de ceux des internautes qui voyaient les éditeurs confisquer la marge supplémentaire offerte par ce type de distribution. Aujourd’hui, des forfaits de téléchargements illimités sont disponibles car financés par des produits dérivés, la publicité ou le sponsoring. Des offres de téléchargements low cost voire gratuits ne cessent d’être lancées sur la Toile, dont certaines venant de l’étranger, intensifiant la concurrence entre majors et éditeurs imaginatifs. Ce phénomène contribue à dynamiser les marchés et plaide pour une extrême prudence dans les interventions autres que structurelles. Le rapport Olivennes a laissé l’impression regrettable que les « fournisseurs » des copies pirates et les hébergeurs n’étaient pas concernés par les sanctions et les contrôles. Aussi, si les actions de sensibilisation et de communication vers les internautes doivent continuer, il convient néanmoins de rappeler que ce sont d’abord les fournisseurs et les distributeurs de produits numériques illicites qui doivent être inquiétés et que ce message aussi il faut le faire passer. Le Parlement européen vient d’adopter un rapport qui appelle à ne pas criminaliser les consommateurs. De leur côté le Sénat américain et la MPAA, (Association des majors de l’édition musicale) n’ont plus l’intention de s’attaquer directement aux internautes[4]. Ils privilégient la poursuite des individus reconnus coupables de distribution illégale de fichiers. Au Canada, les forces de l’ordre ont cessé de poursuivre les internautes qui téléchargent de la musique et des films et n’en font pas commerce. En d’autres termes, les juges s’intéressent surtout au parasitisme commercial dont sont victimes les ayants droits. Même en France, les juges sont attentifs à tenir compte de l’absence de but lucratif[5]. Les sénateurs français de leur côté ne souhaitent pas criminaliser d’office les internautes.

Le piratage détourné ?
Myspace vient de passer un accord avec le site américain Auditude spécialisé dans la promotion des vidéos. Cette société repère les vidéos pirates illégales et les associent à des bannières publicitaires dont certaines dénoncent le piratage. Les revenus tirés de ces bannières sont partagés avec les ayant droits. Pas très orthodoxe, ce procédé qui traque les atteintes au copyright, parasite le piratage et surtout le rend plus visible auprès des internautes ce qui parait une excellente chose. Cela surprend encore les éditeurs de contenus mais MTV Networks (MTV, Comedy Central, Nickelodeon, etc.) qui trouve l’idée astucieuse vient de signer un accord avec MySpace et Auditude pour que ses vidéos piratées deviennent rentables de préférence à des procès toujours aléatoires et coûteux.

Même si cela est long, les marchés s’adaptent et les pertes dues à la démarque inconnue diminuent. L’économie numérique quitte très progressivement la zone far West pour une régulation plus sereine. IDC vient de présenter pour la cinquième année consécutive une investigation sur la « démarque inconnue » (ou piratage pour les éditeurs) dans le monde à la demande de la BSA (Business Software Alliance[6]). Sa principale conclusion est que le piratage de logiciels en 2007 a relativement diminué dans 67 pays et augmenté dans 8 seulement. Si la France reste un pays sous surveillance, une baisse se confirme depuis trois ans. Pour l’Hexagone, l’étude IDC avance que le piratage de logiciels est responsable de la perte de 2,6 milliards de dollars. Oui, mais la France est aussi l’un des plus gros consommateurs mondial de biens numériques. Ainsi selon Comscore, un organisme d’étude dédié au Net, un internaute français regarde 90 movies contre 77 en moyenne pour un internaute américain, ce petit monde étant devancé par les canadiens avec 112 vidéos. Une tendance qui ne pourra qu’augmenter au détriment du temps passé devant la télévision en contribuant à une demande plus importante des débits circulant dans les réseaux des opérateurs. Une des raisons de cet engouement me paraît évidente. La France fait partie des nations les mieux équipées en matière de haut débit. Ce qui peut aussi expliquer l’importance des téléchargements pirates… ou pas, alors que le mode de facturation des opérateurs reste encore neutre par rapport à ces gros consommateurs. Ce qui fait que la majorité des utilisateurs ne paie pas en proportion de leur consommation. Problème qui me paraît, à l’évidence devoir être résolu un jour ou l’autre. Il ne faut pas que la bataille des éditeurs, même légitime à certains égards, ne trompe l’analyse. Malgré le brouhaha actuel, le législateur doit garder à l’esprit qu’il fait l’objet de pressions destinées à maintenir les positions des intervenants alors que se multiplie les initiatives en matière de modèles économiques nouveaux. Face à la démarque inconnue de l’économie numérique les élus doivent sanctionner les dérapages les plus significatifs du « parasitisme » commercial mais en laissant faire les forces du marché des contenus qui se régulera progressivement.

Denis Ettighoffer

[1]-http://www.riaa.com/
[2]-http://www.clubic.com/actualite‐169622‐affaire‐thomas‐ria…
[3]-http://www.freedom‐to‐tinker.com/blog/tblee/piracy‐statis…
[4]-Plutôt que de privilégier le modèle répressif, la justice belge contraint les hébergeurs à installer un filtrage des activités de téléchargements de P2P. En juin 2007, un tribunal de Bruxelles a imposé au fournisseur d’accès à Internet (FAI) Scarlet, ex‐Tiscali, de mettre en place des mesures techniques pour empêcher le téléchargement illégal des contenus de la Société belge des auteurs, compositeurs et éditeurs (Sabam). Le mythe selon lequel il serait impossible d’assurer un filtrage efficace a été balayé par les remises de conclusions d’un expert qui a proposé onze solutions de blocages possibles. Philippe Crouzillacq , 01net.
[5]-A‐t‐on bien évalué les difficultés de disposer des procédés de traçage contre des internautes qui ne savent pas toujours identifier un fichier légal d’un autre que ne l’est pas? Ce qui sera l’occasion d’autant de litiges générant des milliers de procédures auquel les tribunaux devront faire face.
[6]-Pour rappel, la BSA est une organisation mondiale regroupant plusieurs grands éditeurs (Adobe, Apple, McAfee, Microsoft, Symantec, …) qui revendique une mission de promotion d’un monde numérique légal et sûr. L’une des armes favorites de la BSA dans son  » sacerdoce « , est la publication d’études alarmistes et par ailleurs souvent sujettes à caution, dans lesquelles sont pointés du doigt les principaux pays où la piraterie logicielle est monnaie courante avec les pertes toujours colossales que cela engendre pour l’économie mondiale.

*Denis Ettighoffer est consultant en organisation et management , il est spécialiste de l’impact des TIC sur les organisations, il a fondé en 1992 Eurotechnopolis Institut, société qui étudie les enjeux associés aux nouvelles technologies et au développement de l’innovation organisationnelle.
Son dernier ouvrage « NetBrain Planète Numérique, les batailles des Nations savantes » (Dunod-2008) vient de recevoir le prix du livre de l’économie numérique (voir notre interview autour du livre : Partie I, Partie II).

Il est par ailleurs l’auteur d’autres ouvrages, parmi lesquels :

- L’Entreprise Virtuelle,
- Du mal travailler au mal vivre,
- Mét@-Organisations,
- eBusinessGeneration,
- Le Syndrome de Chronos,
- Le Travail au XXIe siècle
- Le Bureau du Futur

Denis Henri Failly

facebooktwittergoogle_pluslinkedin

L’internet des objets

L'Après Web

 


Une contribution de Joël de Rosnay*
(2/3)

Joël de RosnayEn novembre 2005 à Tunis s’est déroulé le Sommet mondial sur la société de l’information. L’Internet des objets (Internet of things) était à l’ordre du jour. Il représente certes des avantages, mais aussi un danger potentiel, les exemples suivants le montreront.

Objets familiers

Les objets familiers vont de plus en plus communiquer avec nous. Il peut s’agir de nos clés de voiture, d’un parapluie, de notre téléphone portable, d’un sac à main… Ces objets seront dotés de puces électroniques  » RFID  » (radio frequency identification). Ces petites puces sont capables d’émettre et de recevoir à distance, par ondes radio, vers une balise, un PDA, un téléphone portable… Ces balises envoient un signal qui  » interroge  » la puce. Celle-ci répond :  » Je suis là ! Je mesure tel paramètre  » par exemple.
Qui n’a pas égaré sa voiture dans un parking ? Avec cet appareil intégré à votre trousseau de clés, une sorte de petite boussole équipée d’une aiguille indiquera dans quelle direction est garée votre voiture, laquelle allumera ses phares à votre approche… Il en sera de même avec votre téléphone portable ou tout autre objet égaré.
Read more

Denis Henri Failly

facebooktwittergoogle_pluslinkedin

Rizotto, CACO et rhizomes: bienvenue à la bl-EGO-sphère !

L'Après Web

Brice Auckenthaler

Une contribution de Brice Auckenthaler*

 

  • Web / Temps 1 : back to 3 milliards d’années, le risotto

La conception du Monde, Dieu s’y est mis tout seul et s’en est plutôt pas mal sorti. Le Big Bang qui en résulta créa une énorme bouillie. Appelons-la risotto, c’est plus appétissant. Comme tout bon risotto, c’est le touillage lent et délicat de chaque ingrédient qui déclenche la magie.
Quant aux innovations qui ont rythmé le progrès, la plupart sont le fruit d’intuitions personnelles [Léonard de Vinci ou Jules Verne continuent à faire fantasmer aujourd’hui], de besoins a priori égoïstes [le walkman est né de l’envie d’Akito Morita –président de Sony à l’époque- d’écouter de la musique en jouant au golf], de constats solitaires [James Dyson inventa l’aspirateur sans sac alors qu’il n’en avait pas la compétence technique mais était confronté à une interrogation : comment se fait-il que mon aspirateur n’aspire plus alors que le sac n’est qu’à moitié plein ?]. Ou bien d’expérimentations osées [le Post-it® -fruit d’un ingénieur qui mis au point une colle qui se décolle- est plutôt rupturiste pour une entreprise qui fabrique des adhésifs !]. Voire de hasard personnel : ainsi le mythe du Roquefort découvert par un berger qui avait laissé traîner une miche de pain avec du lait qui a fermenté…

Moralité # 1 pour Web 3.0 :
arrêtons de penser que le web et l’innovation sont affaire de bouillie collective seulement. Quelque soit l’option technologique, cela restera avant tout une question d’envie, de conviction, d’implication et de pilotage individuel.

Read more

Denis Henri Failly

facebooktwittergoogle_pluslinkedin

Après le Web 2

L'Après Web 2

Emmanuel Gadenne

Une contribution de Emmanuel Gadenne*

Le Web 2.0 a vu l’apparition d’une multitude de nouveaux acteurs dans des domaines très divers : réseaux sociaux, blogs, microblogs, wiki, partage de photos, de vidéos, de liste de musique, de favoris, de slides…

Aujourd’hui, beaucoup de sites web veulent s’accrocher au train du Web 2.0 en se revendiquant communautaires, en ajoutant une fonction ajout d’amis, un statut (« What am I doing ? ») et des possibilités d’échanges : tags, rating, commentaires…

L’usage de tous ces sites Web 2.0 requiert une procédure classique et répétitive : saisie de son profil, ajout de sa photo, invitation de ses amis à partir de son webmail, renseignement de son statut, puis activité en ligne pour exister a minima sur l’outil, et pouvoir, peut-être, commencer à en titrer quelques profits. Tout cela est bien fastidieux, surtout si l’on veut tester le dernier réseau social ou le dernier outil de microblog à la mode !

Une première simplification est déjà en marche. Ainsi, Google dans un outil comme YouTube permet déjà la signature reposant sur la réutilisation directe de son compte Google. On tend ainsi à avoir un compte unique (son compte Google) pour accéder à une multitude d’outils. Ainsi, en ce qui me concerne, j’accède avec le même compte aux outils YouTube, Gmail, iGoogle, Google Reader, Google Maps, Blogger, Analytics, Google Docs.

Un deuxième type de transformation viendra aussi du rachat des acteurs de niche par les grands acteurs qui s’étendent sur tous les créneaux : Microsoft et Google en ce qui concerne le Web.

La nouveauté viendra aussi de la gratuité ! Pour barrer la route à son adversaire, rien de tel que de l’attaquer au niveau de son business plan. C’est ainsi que Google offre Google Docs gratuitement pour barrer la route à Microsoft qui tire une grande partie de ses revenus de Microsoft Office. En échange, et c’est de bonne guerre, Microsoft propose Live Search sans affichage de liens sponsorisés pour barrer la route à Google qui tire de ces liens sponsorisés la majorité de ses revenus. Sur ce principe, on verra peut-être des leaders absents du marché des réseaux sociaux proposer des clones de Facebook sans publicité ou des clones de LinkedIn ou de Viadeo sans abonnement premium.

Au-delà, je pense que l’après Web 2.0 sera un Web vraiment centré autour de l’internaute.

Les données de l’internaute seront centralisées dans un espace unique, car on a qu’un seul nom, qu’un seul prénom, qu’une seule date de naissance, etc. L’internaute pourra en revanche choisir quelles données il souhaite diffuser dans quels sites. Ainsi par exemple je m’appelle Emmanuel Gadenne dans Facebook comme dans Viadeo mais je ne souhaite pas utiliser la même photo de profil dans ces deux sites.

On aura aussi la possibilité de saisir une information dans une interface centralisée et de la diffuser sur plusieurs sites. Par exemple l’information « J’interviewe Osiris Martinez » qui fait référence à un billet de mon blog et qui est à la fois pro et perso pourra être publiée de façon simultanée en direction de Facebook, Twitter, LinkedIn, Plaxo, Frienfeed, Plurk, Viadeo…

Mon réseau d’amis sera aussi consultable en un point unique : je verrai ainsi plus facilement les contacts avec lesquels je suis en relation à la fois dans Facebook, Viadeo et LinkedIn, ainsi que les contacts qui font partie de la communauté des lecteurs de mon blog.

L’interface Web de demain sera donc centrée autour de la donnée. Si je change de nom ou de prénom, je dois pouvoir le faire en un point. Si je veux établir un contact en ligne avec mon cousin, je dois pouvoir lui envoyer en un clic une demande pour Facebook, Plaxo, Viadeo et LinkedIn. Idem pour le détails de mes expériences professionnelles, je dois pouvoir en centraliser la description en français et en anglais s’en avoir recours à des copier-coller.

Lorsque je décide de devenir utilisateur d’un nouveau site Web, je pourrai alors autoriser celui-ci à récupérer les données que je souhaite lui transmettre (nom, prénom, date de naissance…) tout en précisant celles qui sont inaccessibles et celles qui ont un accès réservé, et ce sans aucun copier coller ni ressaisie. Si le nouveau site sollicite de nouvelles données, par exemple mes essais préférés, ceux-ci seront stockés dans ma base de données personnelle et utilisables par la suite par d’autres sites avec mon autorisation.

Le Web de demain permettra de stocker nos données et nos fichiers sur Internet et d’en donner un accès facile.

Les moteurs de recherche seront aussi d’avantage basés sur l’analyse du sens que sur la recherche de mots clés. Aujourd’hui si on tape « Acheter voiture » dans Google, on obtient une liste très pertinente de choix pour nous guider dans l’achat d’une voiture.

Mais si on veut connaître le marché de la pomme aux Etats-Unis une requête du type « apple market US » ne nous renseigne pas du tout ! Et oui, il aurait fallu lancer une recherche sur « apple fruit market US ». Google devrait me suggérer cette requête…

Si le CV en ligne de ma base de données personnelles précise que je suis fabricant de jus de fruit, où si mon réseau de contacts comporte de nombreux producteurs de pommes, Google aurait même pu me l’exécuter par défaut si j’utilise le bouton « J’ai de la chance », tout en me proposant un lien alternatif « apple computer market US »…

Emmanuel Gadenne

*Emmanuel Gadenne est Consultant Manager chez Sopra Group et animateur d’un blog sur les nouveaux usages du Web (http://www.webusage.net/)

Denis Henri Failly

facebooktwittergoogle_pluslinkedin

Le Web 3D collaboratif

L'Après Web

Philiipe Peres

 Une contribution de Philippe Peres*

Le web 2.0 et le web 3D  qui lui fera suite ne sont que les préludes de changements sociétaux plus importants.

Nous sommes sans doute à l’aube de profondes mutations de nos sociétés occidentales modernes avec des conséquences au niveau de l’organisation du travail (travail collaboratif), du social (réseaux sociaux) et du politique (démocratie participative) qui devraient au final donner une plus grande liberté de choix à l’individu (fin de la société de consommation et de la société de masse, passage à la société de la connaissance et de l’intelligence collective).

Mais les changements de paradigmes socio-économiques se font aussi souvent dans la douleur car la résistance au changement est bien là.

Internet Evolution

C’est dans cette logique d’innovation sociale qu’il faut imaginer des outils collaboratifs qui ont un potentiel de changement des pratiques. La tâche est ardue, les résistances sont nombreuses, mais au final le projet est vraiment porteur :

E-learning d’abord pour changer les apprentissages en replaçant l’individu au cœur du savoir et en lui donnant la maîtrise de ses savoirs, Travail collaboratif et réseaux sociaux ensuite pour replacer l’individu au cœur des pratiques sociales (travail, loisir, consommation).

Sans oublier bien sûr la dimension politique qui donne sens à ces mutations, car que faire de cette plus grande liberté de choix qu’apporte la technologie ? C’est là qu’on peut rejoindre aussi le concept d’éco-innovation, de l’innovation orientée développement durable.

Ces outils sont web et 3D. Pourquoi ?

D’ici moins de 5 ans, en allumant votre ordinateur, sous Linux, Windows, Mac ou tout système d’exploitation, ou Web OS, vous accéderez à un bureau virtuel en 3D à partir duquel vous pourrez lancer différentes applications et accéder à des environnements web en 3D temps réel.

Car la 3D temps réel n’est pas seulement réservée au domaine du jeu, comme on pourrait le penser au premier abord. Elle permet aussi de développer de nouveaux environnements de travail collaboratifs (réunion à distance en web conférence, formation en classe virtuelle), de e-commerce (boutiques et galeries commerciales virtuelles) ou de réseaux sociaux d’expression et de partage (espaces personnels 3D) …des applications tant professionnelles que grand public qui reposent sur la 3D et la collaboration en temps réel.

La 3D est là pour apporter une dimension supplémentaire (un supplément d’âme) plus esthétique mais aussi et surtout pour permettre un accès plus immédiat à du contenu multimédia : c’est l’idée d’ « image habitable », telle qu’exposée par Sylvain HUET et Philippe ULRICH : « Habiter une image, c’est comme habiter une maison : on y entre, on y reçoit, on y partage, on y travaille, on s’y repose, on la construit, on l’emménage, on l’agrandit, on la range, on la dérange. La seule différence, c’est que l’image qu’on habite n’a pas de matérialité, ou plutôt sa matérialité est changeante : tel mur n’est pas constitué de ciment, mais se trouve être une parcelle de surface magnétique quelque part sur un disque dur, mais aussi quelques transistors d’un ordinateur, mais aussi quelques états électriques d’un câble coaxial, et pour finir quelques électrons dans le tube cathodique de votre moniteur. Réel ou virtuel, là n’est plus la question, car tout ce que vous faites dans cette image, c’est-à-dire tout ce que vous communiquez dans cette image est bien réel : ce que vous faites aux autres, ce que vous dites aux autres est aussi réel que si vous utilisiez un support matériel. On parle souvent de “l’âme d’une maison”, en évoquant en fait les traces que les habitants et les visiteurs y laissent. Il en est de même pour l’image qu’on habite : elle est marquée par la vie qui s’y organise. »

On l’aura compris, ces environnements web 3D sont donc de vrais lieux de vie, multi-utilisateurs, des environnements riches, conviviaux, multimédia et qui donnent véritablement sens à l’idée de convergence (voix, données, images). La 3D n’étant qu’une fonction parmi d’autres (car l’environnement 3D est le contexte naturel des échanges et des rencontres) telles que des fonctions réseau, audio, vidéo, web, sql…nécessaires à la mise en place de solutions collaboratives en ligne.

Ces environnements s’inscrivent dans une logique « 2.0 », UGC (User Generated Content), à charge pour leurs occupants de les personnaliser et d’imaginer les modes de vies et d’interactions qu’ils pourront avoir en leur sein.

Des environnements qui font appel à de nouveaux « architectes du virtuel », des architectes soucieux d’écologie et de développement durable, des architectes soucieux d’esthétique mais aussi de sécurité informatique et du respect de la vie privée. Des architectes dont les compétences sont tant la maitrise des réseaux, de la sécurité, des bases de données et de la programmation que celle de la conception et du développement 3D, de l’animation d’avatars, du design 3D et du sens de l’esthétique.

Autour de ces environnements, c’est un véritable écosystème qui peut se mettre en place : implication de la communauté des développeurs et des infographistes 3D pour designer et meubler ces mondes 3D, des sponsors et publicitaires pour financer les environnements grands publics ouverts, de partenaires pour commercialiser les environnements privatifs.

Les environnements virtuels collaboratifs ne remplaceront jamais les environnements réels et l’interaction humaine directe mais ils permettront surement de s’en rapprocher et d’offrir ainsi une meilleure qualité de vie, une plus grande facilité de communication, d’interaction et de collaboration entre personnes distantes, plus de souplesse et d’autonomie au travail, des possibilités nouvelles d’apprendre de développer et de partager ses connaissances.

La société de la connaissance et de l’intelligence collective (au service d’individus plus libres et plus responsables) qui est notre futur à tous repose sur une nouvelle économie de l’immatériel, sur des innovations orientées développement durable, mais aussi sur ces technologies collaboratives et temps réel, et sur les architectes du virtuel qui les bâtirons en vue d’un monde meilleur.

Philippe Peres

*Philippe Peres est Président de I-Maginer
Voir une illustration vidéo sur : http://www.youtube.com/watch?v=sv-aRyKc7aA

Comments

ca rassemble a la vie de tous les jours ce web la…dans la vie aussi ont peut agrandir ses perspectives…avec un peu d’imagination et de volonté…

par contre j’aime l’idée d’image habitable…il y a en effet du volume dans le plat…a quand les murs habitables ?

Écrit par : jérémy dumont | 15/10/2008Denis Henri Failly

facebooktwittergoogle_pluslinkedin

Demain l’intelligence des données

L'Après Web

 

Hubert Guillaud

Une contribution de Hubert Guillaud* (4/4)

NB : Hubert Guillaud nous a aimablement autorisé à publier l’article qui suit et qui est déjà paru sur le site Internet actu en 2007 mais qui demeure… d’actualité.

« Quand on regarde l’avenir, on a souvent tendance à penser que le changement le plus radical reposera sur l’internet des objets, une intelligence qui va bouleverser notre relation avec eux et leurs relations entre eux. Bien sûr, parce qu’on va les tenir dans nos mains, parce qu’ils vont bouger sous nos yeux, ces changements-là seront spectaculaires.

Pourtant, demain, il n’y a pas que les objets qui seront intelligents : il y aura aussi les données. Et l’impact de ce changement pourrait bien être tout aussi radical.
Read more

Denis Henri Failly

facebooktwittergoogle_pluslinkedin

Vers le Web 3.0

L'Après Web

Hubert Guillaud

Une contribution de Hubert Guillaud*(3/4)

NB : Hubert Guillaud nous a aimablement autorisé à publier l’article qui suit et qui est déjà paru sur le site Internet actu en 2006 mais qui demeure… d’actualité.

“Le web 2.0, qui décrit la capacité de relier sans couture des applications (comme la cartographie) et des services (comme le partage de photographies) via l’internet, est devenu ces derniers mois le centre d’attention de toutes les sociétés de la Silicon Valley. Pour autant, l’intérêt commercial pour le Web 3.0 – ou “le web sémantique” – émerge seulement maintenant.

L’exemple classique de l’ère du Web 2.0 est le mashup - par exemple, un site web de location de vacances relié aux cartes de Google pour créer un service nouveau et plus utile qui montre rapidement, sur une carte, la liste des locations disponibles.

Le Saint Graal des promoteurs du web sémantique consiste en un système capable de donner une réponse raisonnable et complète à une question simple du type : “Je recherche un endroit chaud pour les vacances. J’ai un budget de 3 000 dollars. Ah, et nous avons un enfant de 11 ans.”

Répondre à une telle question aujourd’hui peut exiger des heures de tri dans des listes distinctes de vols, hôtels et locations de voitures, qui proposent des options souvent contradictoires. Avec le web 3.0, la requête appellerait une réponse cohérente, aussi méticuleusement assemblée que si elle l’avait été par un agent de voyage humain.

Comment de tels systèmes s’établiront-ils, et quand commenceront-ils à fournir des réponses signicatives, commence à être le sujet de discussion de nombreux chercheurs et d’experts”, explique John Markoff pour le New York Times (enregistrement obligatoire).
Read more

Denis Henri Failly

facebooktwittergoogle_pluslinkedin

Vers le Web implicite

L'Après Web

Hubert Guillaud

Une contribution de Hubert Guillaud* (1/4)

NB : Hubert Guillaud nous a aimablement autorisé à publier l’article qui suit et qui est déjà paru sur le site Internet actu en 2007 mais qui demeure… d’actualité.

 

« Le concept du web implicite est simple”, explique Alex Iskold de Read/Write Web. “Quand nous touchons l’information, nous votons pour elle. Quand nous venons sur un billet depuis un article qu’on a apprécié, nous passons du temps à le lire. Quand on aime un film, nous le recommandons à nos amis et à notre famille. Et si un morceau de musique résonne en nous, nous l’écoutons en boucle encore et encore. Nous le faisons automatiquement, implicitement. Mais les conséquences de ce comportement sont importantes : les choses auxquelles nous prêtons attention ont une grande valeur pour nous, parce que nous les apprécions.”
Read more

Denis Henri Failly

facebooktwittergoogle_pluslinkedin

Internet et les niveaux d’usages

L'Après Web

Roger Nifle
Une contribution de Roger Nifle*

Les usages d’internet, c’est une affaire qui mobilise les spécialistes, trop souvent à côté du sujet, si tant est que le sujet soit l’usager. Chacun comprendra à sa porte ou sa fenêtre (de conscience).

La question est récurrente depuis le début mais c’est promis juré, cette fois ça y est on est passé d’internet 3ème génération au Web 2-0. Ce qui est sûr c’est que la population se saisit des possibilités offertes par Internet et invente des usages, c’est-à-dire des usages sociaux, culturels, professionnels, interpersonnels.

Les technologies s’intéressent aux usages de leurs productions, surtout pour les valoriser. Ah si la “valeur technique” devenait une “valeur d’usage” après avoir convaincu de futurs usagers !

Le problème c’est sur quelles visions partagées se rencontrent-ils, quel niveau de conscience commun pour traduire réciproquement. Parce que s’il n’y a pas réciprocité ça ne marche pas.

C’est pour cela que se construisent des sphères d’entendement mutuel mais déconnectées du reste du monde.

Read more

Denis Henri Failly

facebooktwittergoogle_pluslinkedin
HTML Snippets Powered By : XYZScripts.com