Archives pour la catégorie Content management

Mathemagenic: learning and KM insights – Thursday, June 10, 2004

Voici une explication illustrée des usages de ces outils qu’on appelle les blogs ou carnets Web (via Outils Froids du Web). En dehors du fond très juste de ces illustrations, je trouve que leur forme permet de manière élégante d’appréhender des usages technologiques. L’outil, c’est bien. Mais ce sont les usages que chacun batît autour qui en font une technologie.
(Oh ! ben tiens, j’ai réussi à publier un message sur mon carnet entre deux biberons ! auto-félicitation !) :)

Des carnets Web au web sémantique

Sebastien Paquet évoque l’évolution future des carnets Web et l’émergence du « structured blogging ». L’idée est la suivante : plus l’activité des carnettiers va gagner en maturité, plus le format habituel des carnets et de RSS (titre + URL + texte) paraîtra limité et insuffisant, plus les outils de la chaîne de carnettage (weblog + aggrégateurs) vont prendre en compte des types de contenu structurés plus complexes. Et il n’y a qu’un pas (voire aucun) entre le « structured blogging » et le web sémantique. Dans ce contexte, les moteurs de gestion de schéma de contenu tels que Archetypes de Plone (ou CPSSchema de CPS ou encore des moteurs de gestion d’ontologie tels que Mondeca et autres AM2 Systems) auront un rôle clef à jouer puisque des plate-formes équipées de tels moteurs pourront servir au carnettage structuré sous toutes ses formes !

Miam, miam, les années qui viennent nous promettent des inventions fichtrement intéressantes ! Et la vision du Web Sémantique commence à prendre forme.

Carnets Web d’entreprise : l’exemple R.H.

Ce carnet Web tenu à jour par deux responsables R.H. en recrutement, de chez Microsoft, est un très bon exemple de carnet Web d’entreprise. Ce qu’apportent ces carnets à Microsoft : un lien d’animation avec la communautés des candidats à l’embauche chez Microsoft, une manière d’optimiser le processus de recrutement (les candidats postulent en étant tous mieux préparés), une meilleure lisibilité de la politique d’embauche de Microsoft, l’image d’une entreprise à visage humain. Il y a sans doute d’autres avantages fournis par les carnets Web pour soutenir la fonction R.H. de recrutement des grandes entreprises. Je vous laisse imaginer (et laisser vos idées éventuelles ici pour que tout le monde en profite !).

La différence entre « knowledge management » et « content management »

CMSWatch signale un excellent article qui parvient en quelques lignes non seulement à définir la différence entre gestion des connaissances et gestion de contenu mais également à résumer de manière très juste les pratiques actuelles dans ces deux domaines.

Mon intérêt personnel réside certes dans le domaine de la gestion des connaissances au sens large présenté dans cet article, mais le vrai potentiel de ce domaine me semble résider dans les pratiques (méthodes) et outils (émergents) d’ingénierie des connaissances. D’où mon intérêt pour le Web Sémantique…

Retours d’expérience sur les CMS

Un groupe d’une soixantaine d’ « architectes en information » a partagé, début 2003, ses retours d’expérience sur l’implémentation de systèmes de gestion de contenu. Leurs principales conclusions, à l’époque : les CMS sont trop chers, trop long à personnaliser, et ne sont trop fermés (difficulté pour reprendre du contenu existant par exemple).

WordPress is going semantic (a little bit)…

WordPress, the famous weblog engine (powering this site), is getting equipped (in its CVS HEAD version) with a new feature allowing webloggers to post small pieces of metadata (pairs of key + value) with each one of their blog entries. WordPress is going the same way Charles Nepote went with his semantic wiki prototype. We won’t wait a long time before someone comes with a real semantic bloki. It must be a matter of months.

By the way, Archetypes is a new masterpiece of Plone and its references management engine allows the weaving of semantic relationships inbetween Content objects. It just lacks the ability to publish its schema and data as RDF files through Plone URLs… Anyway, Archetypes should soon provide the ability to extend objects schemas at runtime through the web. It means users will be able to add metadata to objects. These features can already be tested with PloneCollectorNG in its latest version (test the CVS version if you can).

Mon papa découvre RSSBandit

Mon papa aime bien découper des articles dans la presse. Je suppose qu’il sera intéressé par l’utilisation d’un agrégateur d’actualités. Le meilleur agrégateur open source pour Windows, à ce jour, me semble être RSSBandit. Inconvénients principaux de RSSBandit : il contient encore au moins quelques bugs énervants ; et il nécessite l’installation du framework .Net sur le poste de travail ! Mais bon, ceci accepté, voici donc les infos que je donne à mon papa pour qu’il apprenne à utiliser RSSBandit.
Tu peux faire plusieurs choses avec le pirate :
1/ LIRE les actualités : il suffit de cliquer sur le titre des sources d’actualité (newsfeed) exemple : « Liberation, politique internationale » puis de cliquer sur chaque actualité ; lorsqu’une actualité est lue, elle change de couleur (passage de gras à non-gras) ; ainsi tu sais ce que tu as déjà lu et ce que tu n’as pas encore lu.
2/ ORGANISER les actualités : tu peux ranger les sources d’actualité en rubriques et sous-rubriques (dossiers et sous-dossier). Pour cela, il faut cliquer bouton droit sur le dossier parent et lui dire de créer un sous-dossier. Ensuite tu fais glisser ta source d’actu vers ce nouveau sous-dossier.
Tu peux ainsi créer une arborescence thématique (le dossier « politique » contiendrait le sous-dossier « politique internationale » qui contiendrait par exemple la source d’actu « Libe, politique internationale »).
Tu peux préférer organiser d’abord tes rubriques par langue : un dossier pour toutes les sources en français et un autre pour tout ce qui est en anglais. Mais cela est déconseillé car peu pratique.
Mais le nec plus ultra, c’est de commencer simplement par un créer une liste de dossiers vides numéroté de 095 (avec un zero devant, c’est mieux) à 105. Ensuite tu mets toutes tes sources d’actualité dans le dossier 100. Et, chaque jour, tu viens parcourir les nouvelles actualités. Les sources qui te semblent peu intéressantes, tu les mets dans un dossier inférieur (tu fais passer « Libe, politique internationale » de 100 vers 099 par exemple). Et, inversement, les sources qui te semblent mériter plus d’attention de ta part, tu les mets vers 101. Les jours suivants, tu gardes la même règle à l’esprit : lorsqu’une source est intéressante, je la monte d’un dossier ; lorsqu’elle ne donne rien d’intéressant ce jour-là, je la fais descendre d’un cran. Ainsi, au bout de quelques jours, tu auras classé tes sources par ordre croissant d’attention qu’elles méritent. Ainsi, tu pourras à l’avenir ne lire souvent que les sources dans les dossiers méritant beaucoup d’attention (104, 105, …) et ne vérifier les actus des sources moins intéressantes (dossiers 097, 098, …) que moins souvent.
Tu peux décider de supprimer des sources en cliquant bouton droit dessus puis Delete news feed.
3/ AJOUTER de nouvelles sources
Chaque sources d’actualité est identifiée par une adresse Web. Exemple : la source « AkaSig » a pour adresse Web http://sig.levillage.org/wp-rdf.php En effet, c’est une source qui est publiée à cette adresse sur mon site Web perso.
Ajouter une nouvelle source implique donc que tu trouves des adresses Web de sources d’actualité puis que tu demandes à RSSBandit d’ajouter cette source dans sa liste (puis tu la mets dans le dossier/rubrique que tu veux). Demander à RSSBandit d’ajouter une source, c’est facile : il faut cliquer sur le bouton « New Feed » de sa barre de bouton puis saisir (copier-coller) l’adresse Web de la source que tu veux ajouter. Et RSSBandit fait le reste (y compris, généralement, trouver automatiquement le titre de la source).
La partie « difficile » consiste à trouver des sources d’actualité qui t’intéressent. Pour cela, le mieux est de faire une recherche classique dans Google sur un thème qui t’intéresse, en ajoutant « filetype:rdf » ou « inurl:rdf » ou encore « filetype:rss » comme mot-clef de ta recherche (sans les guillemets). En retour, Google te propose des adresses Web qui contiennent des sources d’actualité que tu peux ensuite ajouter dans RSSBandit. Exemple : chercher « inurl:rdf politique » te donne comme sources possibles l’adresse de plusieurs carnets Web célèbres qui commentent l’actualité politique et constituent donc eux-même des sources.
4/ METTRE des mots-clefs sous surveillance
Tu peux demander à RSSBandit de créer un genre de source virtuelle dans laquelle il va recenser toutes les actualités de tes sources dans lesquelles il aura repéré un mot-clef donné. C’est comme si tu demandait à RSSBandit de lancer automatiquement une recherche, parmi les actus dont il dispose, sur un mot-clef donné à chaque fois que tu l’utilises. Pour ce faire, il faut ajouter un nouveau mot-clef dans la partie en bas à gauche de l’écran. Je ne me souviens plus comment ça s’appelle à l’écran car je viens d’être obligé de désinstaller RSSBandit sur mon poste. Donc je t’en dirai plus plus tard à ce sujet.
5/ METTRE des sources sous surveillance
Tu peux demander à RSSBandit de t’afficher un genre de popup dès qu’une certaine source contient de nouvelles actualités. Pour ce faire, tu cliques bouton droit sur la source que tu veux mettre sous surveillance, tu vas dans propriétés de la source puis tu coches une case qui te dit « afficher une popup window lors de l’arrivée de nouveaux items » (ou alert window je ne sais plus).
Voila, voila… Bonne agrégation.

Marché du Knowledge Management

En rapport avec mon mouton à sept pattes, voici un genre d’aperçu des acteurs du marché du knowledge management vu par le petit bout de ma petite lorgnette :

  • des consultants unp eu visionnaires (ou fumeurs) en KM/intelligence économique/e-learning/veille/capitalisation des connaissances/animation de communautés de pratique pour l’innovation/gestion des compétences/… qui vendent des concepts généraux, des démarches d’animation, des grands projets, et quelques réalisations à travers des micro-éditeurs de niche
  • des micro-éditeurs de niche qui ont bien compris les fonctionnalités à offrir car ils maîtrisent la problématique KM mais n’ont pas les moyens de construire du durable car ils ne sont pas du métier de l’informatique
  • des gros éditeurs qui collent une étiquette KM sur des produits de GED/Workflow/Content Management mais l’étiquette a tendance à se décoller car elle est trop pompeuse pour la réalité de leurs produits
  • des architectes et intégrateurs qui maîtrisent la fonctionnalité informatique mais ne disposent pas encore des technologies informatiques nécessaires (web sémantique) pour réaliser les promesses du KM
  • des sociétés de services en logiciels libres qui essaient de combiner technologies matures et visions fonctionnelles mais qui ont du mal à y ajouter technologies émergentes et vision KM à long terme
  • Que manque-t-il pour compléter le tableau ?

    Classification à facettes

    Je note une certaine convergence vers le concept de « classification à facettes » (« faceted » classification) pour décrire un large ensemble de fonctionnalités qui sont très attendues de la part des technologies du Web Sémantique. Je vous en dis plus dès que j’ai fini mon article à ce sujet… (à suivre, donc)

    LAMP pour les projets critiques

    Le modèle L.A.M.P. (Linux + Apache + MySQL + PHP/Python/Perl) a maintenant acquis de solides références auprès de grands comptes et ce, sur des projets critiques. C’est ce que commence à rapporter la presse informatique, malgré l’intérêt que les gros du conseil ont à promouvoir des technologies concurrentes. LAMP serait positionné non pas comme un concurrent de J2EE et .Net mais comme une solution idéale pour « la couche de présentation de projets critiques d’envergure tout en couvrant tous les besoins des projets départementaux ».

    Devriez-vous confier à l’un des « Gros Cinq » l’implémentation de votre système de gestion de contenu ?

    Devriez-vous confier à l’un des « Gros Cinq » l’implémentation de votre système de gestion de contenu ? La plupart du temps, la réponse est : NON, vous ne devriez pas confier ce genre de projet à des sociétés telles que Accenture, Bearing Point, CGEY, Deloitte ou IGS.

    Mon premier projet en tant que consultant chez un « Big Five » m’a placé auprès d’un des plus gros opérateurs télécoms au monde. […] J’ai demandé une copie du business case et, après avoir passé une nuit à le parcourir, j’ai trouvé une manière simple de réaliser le projet en dépensant peu d’argent grâce à une solution open source. Ensuite, j’ai très rapidement compris quelque chose : jamais un « Gros 5 » ne vous proposera une telle solution car les plus gros éditeurs logiciels leur offrent des commissions sur les ventes […] pour avoir recommandé leurs produits. Ces commissions s’élèvent fréquemment à 25-35% des prix publics des logiciels voire parfois plus.
    C’est une sorte de cercle vicieux. Les partenaires ont peu d’intérêt (voire pas du tout) ne serait-ce qu’à envisager des solutions ne rapportant pas de commissions. C’est pourquoi les solutions de gestion de contenu à coût réduit ou bien open source, davantage « out-of-box », sont très rarement proposées comme des solutions envisageables. En fait, d’après mon expérience, la plupart du temps, le partenaire au sein d’un Gros 5 savait exactement quelle solution de CMS il allait introduire chez le client avant même de franchir la porte de celui-ci. C’est quelque chose qui n’a jamais cessé de me fasciner, mais la leçon à retenir est surtout de se méfier de toute recommandation logicielle provenant de l’un des gros 5.

    Authentification pour Atom

    Atom est un protocole de syndication de contenu concurrent de RSS. Il s’agit d’une invention bien pensée (quoique la méfiance de ses concepteurs à l’égard de RDF me laisse perplexe) mais dont le succès reste à mesurer. Toujours est-il qu’il fallait bien accompagner ce protocole d’une solution convenable pour assurer l’authentification des agents aggrégateurs de contenu. Et comme l’authentification HTTP basique ne pouvait pas convenir, Atom recourt à une extension de cette authentification appuyée sur la technologie WSSE. Résultat : une authentification HTTP qui ne requiert ni installation de modules Apache, ni accès aux fichiers .htaccess et permet une utilisation en environnement mutualisé, via des CGIs, le tout avec un bon niveau général de sécurité.

    Carnets Web en entreprise

    Les carnets Web font progressivement leur apparition dans le monde de l’entreprise. Ils viennent notamment prendre la place des « cahiers de labo » et autres carnets à spirale qui ne quittent pas les mains des ingénieurs et autres cadres en réunion et dans lesquels ceux-ci prennent note de l’avancement de leurs travaux, de leurs idées, des questions qu’ils se posent, des points restant à travailler. L’émergence de ce type d’outils se ferait « en douce », de la même manière que la messagerie instantanée est arrivée sur le poste de M. Tout le Monde avant que les responsables informatiques ne se saisissent du sujet.

    Bloguons le marché

    Le cluetrain manifesto annonçait avec les mots de l’ancienne nouvelle économie que le marketing nouveau prenait la forme de conversations, que les nouvelles technologies permettaient d’abattre la façade commerciale « langue de bois » des entreprises telles qu’on les connaît, que demain, le ciel serait plus bleu et l’herbe plus verte. Dans le même esprit mais de manière plus pragmatique, « Blogging the market » fait le point sur l’émergence des carnets web en tant que support privilégié de la « relation client ».

    SolutionsLinux 2004

    Ouhla, la, quel salon que Solutions Linux 2004 ! Rien de que des gens très intéressants :

    • le directeur d’une SS2L qui a atterri à ce poste après de nombreuses années de bons et loyaux services au sein d’un groupe du CAC40 qui m’emploie actuellement et qui est réputé pour sa gestion « bon père de famille », ou comment reprendre une société qui a été mal en point en nommant à sa tête une personne incarnant l’idée de « croissance durable »,
    • un réseau d’ « entreprises agiles » (Ingeniweb, Pilot Systems, Blue Dynamics, …), les Zope Service Providers de l’EuroZope Association, animé par le gourouisé Paul Everitt
    • Paul Everitt lui-même, qui non seulement déniche grâce à son réseautage permanent des projets commerciaux qui me font baver d’envie, mais prophétise également avec conviction un bel avenir pour les ZSP
    • d’autres spécialistes Zope mais qui n’ont pas rejoint le courant Plone ; je retiens notamment le travail de la société Emencia sur le léger Zwook ; Zwook cible la gestion de contenu plus bas de gamme que Plone (ce n’est pas péjoratif) : morale de l’histoire, bien que moins flexible et moins puissant, Zwook offre des fonctionnalités intuitives (quoique d’ergonomie moyenne) qui permettent par exemple de créer/modifier des skins via le Web sans avoir à toucher une ligne de code (sans bidouilles les ZPT ni même les CSS). Mais ce n’est sans doute qu’une question de temps avant que Plone propose quelque chose d’équivalent.
    • la SS2L (Société de Services en Logiciels Libres) Linagora qui m’a impressionné par son expérience autour de la gestion d’annuaires ; ils semblent avoir développé une approche open source de la problématique de la gestion des droits ainsi que de l’intégration de données d’annuaires (méta-annuaires) qui semble empreinte de pragmatisme, mais si elle manque de maturité pour donner lieu à la distribution de produits bien packagés pour y répondre.
    • des copains d’école ! Chez Nexen, on fait aussi dans la « croissance durable » et leur réputation dans le monde PHP francophone n’est plus à faire ; on annonce la publication d’un magazine ciblant les usages de PHP dans le monde de l’entreprise… prometteur !
    • une preuve vivante que le monde est petit : sur le stand de mes copains d’école, j’ai croisé un type qui a eu le culot de me prétendre que l’offre de Gitoyen était pourrie et que les gens de Globenet étaient tous des nazes incompétents alors que primo ce sont aussi des copains à moi et secondo j’admire leur présence au sein le monde associatif ; il m’a suffit de l’entendre pour comprendre qu’il s’agissait du dévoué Benjamin, maître des systèmes de Globenet ! heureux d’avoir enfin pu mettre un visage sur ton nom Benjamin.
    • le Monsieur Linux d’IBM pour l’Europe de l’Ouest avec qui j’ai eu une discussion très intéressante sur l’avenir de l’open source vu par LE géant de l’informatique : linux est un standard incontournable pour qui veut maintenir son leadership sur le marché. Par contre, autant les solutions open source pour l’infrastructure et la sécurité ont fait leurs preuves, autant l’offre open source sur la couche applicative n’est pas encore assez visible sur le marché pour retenir l’attention des titans. Et c’est délibérément qu’IBM ne veut pas anticiper les choses en la matière et se contente de se concentrer sur l’infra, en lorgnant un peu du côté du poste de travail histoire de suivre les initiatives de Novell et de SUN. D’où la juste prophétie de Paul Everitt :
      I picked a deal size (50-250k) that excludes the Sapients and IBMs. That’s just too small for their radar. Which is good, because (sadly) as open source crosses the chasm into the mainstream market, the new customers are going to want a cathedral on the supplier side to balance the bazaar on the software side.
      I say sad, because it means spectators will show up, after all the small companies did all the work, and these big boys will take all the money. I think this is unfair. But, so what, life is unfair, and this happens all the time.

    • des gens de chez Jouve, tiens, tiens… mais eux aussi intéressés sans doute avant tout par les offres pour l’infrastructure plus que pour l’applicatif

    Bref, un salon stimulant et qui promet des années à venir riches en rebondissements pour l’avenir de l’open source dans la couche applicative.

    How to aggregate news from wiki sites

    Wiki engines often provide RecentChanges pages that list the wiki pages that were recently modified on a given site. These wiki engines progressively include a syndication feature that publish a RSS feed reflecting this RecentChanges content. But they may not implement syndication properly. Therefore, in a discussion about the ZWiki engine syndication feature, I posted the following enhancement request :

    This is an enhancement suggestion for the RSS feeds above (I don’t
    feel confident enough in my Zope/Zwiki skills to implement it right
    now, and I am a little bit to lazy to do it…). My suggestion is
    that, in these feeds, the URL of an RSS item should not be the URL of
    the wiki page but the URL of the last historical revision of this
    page.
    Example : when the page MyPage has been modified, the RSS file should
    not link to http://www.mysite.com/MyPage but to
    http://www.mysite.com/MyPage/HistoricalRevisions/850.15891.51176.22809
    Explanation : The current RSS feeds (see above) link to MyPage. Let’s
    say that 5 users change MyPage in the morning of a given day. The
    problem is that my RSS aggregator will check the RSS feed, let’s say,
    once a day at noon. Then, my RSS aggregator will link to MyPage and
    may provide a link to the latest diff of MyPage. It is OK. But, during
    the afternoon, 5 additional users come and further change MyPage.
    Then, when my RSS aggregator checks the RSS feed again (the day
    after), it will not notice that further changes have happened to
    MyPage ! The current RSS feed does not allow the aggregator to detect
    that new changes have happened because the current RSS feed is not
    using the proper resource. The current resource used is the page
    itself whereas the paradigm of syndication/aggregation suggests that
    the proper elementary resource is the message (the revision or the
    diff itself). Or the users of aggregators may not be notified of
    recent changes of the wiki resources. And wiki pages will only appear
    in a given aggregator once during their whole life. Further changes
    may be ignored by the aggregator (because it may say : « I already have
    aggregated this URL before ») which is not a good thing and which is
    not the fault of the aggregator !
    What do you think ?

    Another step toward a semantic wiki / bliki / bloki / wikilog

    Le meilleur / le pire de la gestion de contenu

    CMSWatch a établi une synthèse des principales fonctionnalités attendues pour un logiciel de gestion de contenu et a attribué des mentions aux principaux produits du marché. Pour prendre deux produits que je connais, voici ce qu’il en sort :

    • Teamsite d’Interwoven : bon en « services de bibliothèques », et en dynamisme du club des utilisateurs, mauvais en gestion des utilisateurs et des rôles, en gestion des métadonnées et des taxonomies
    • Zope : bon en gestion des utilisateurs et des rôles, en indexation et capacité de recherche, en niveau de compétences des équipes de support, en « Good Value » (va savoir ce que ça veut dire…), mauvais en gestion des métadonnées et des taxonomies et en ergonomie

    Un commentaire personnel : le fait d’avoir rangé Zope parmi les outils de gestion de contenu me semble démontrer une mauvaise connaissance de Zope, de la part de CMSWatch. En effet, Zope n’est pas un produit de gesion de contenu mais un serveur d’application (ou encore un environnement d’exécution). Certes, Zope est souvent utilisé pour construire des applications de gestion de contenu. Mais si CMSWatch avait voulu faire un travail vraiment professionnel, ils auraient noté Plone plutôt que Zope. Plone est effectivement un produit de gestion de contenu. Du coup, Plone n’aurait sans doute pas eu de point négatif en matière d’ergonomie puisque la qualité de son interface utilisateur est justement l’un de ses principaux points forts (sans compter tous les avantages du serveur Zope sous-jacent).

    Retour d’expérience sur la gestion de contenu

    Content management, the hard way rapporte l’expérience de quelques consultants en gestion de contenu. Il part du constat de la désillusion actuelle des sociétés qui ont acheté, à grand frais, des solutions de gestion de contenu propriétaires, fermées et « sur-sophistiquées » (à la « Storyserver de Vignette » et autres « Teamsite d’Interwoven »). Ces sociétés utilisatrices ont constaté des coûts de maintenance exorbitants et des coûts de l’ordre de 20 000 euros par utilisateur et par an ! Et elles se sont retrouvées prisonnières d’une relation commerciale avec un éditeur sur la solution duquel elles avaient investi et dont elles peuvent aujourd’hui difficilement se débarasser.
    Dans ce contexte, les solutions distribuées sous licence open source, telles que Red Hat CMS, OpenCMS, Zope et Plone ou encore MidGard paraissent séduisantes. Elles rencontrent déjà un succès commercial certain puisqu’elles ont conquis des références comme Siemens, la Banque Mondiale, le groupe Viacom, l’US Navy ou encore l’OTAN. Pourtant, le fait que la licence soit de type « open source » ne garantit en rien le succès du projet. Le type de licence garantit certes l’accès au code source, mais encore l’entreprise doit-elle veiller à ce que la solution choisie ait une architecture ouverte, évolutive et interopérable. Plus encore, l’entreprise doit veiller à disposer sur le marché d’une diversité suffisante de sources de compétences pour assurer le support de la solution : la solution considérée place-t-elle l’entreprise dans la même position de faiblesse vis-à-vis d’un fournisseur unique que dans le cas d’une solution commerciale ? ou bien existe-t-il suffisament de sociétés de services offrant des compétences solides sur ce produit ?
    L’article mentionne également les tactiques des éditeurs de produits propriétaires pour contrer l’avancée de la gestion de contenu « open source » : former les commerciaux à discourir sur les faiblesses de ce nouveau type de concurrent, rappeler que l’open source a plus de succès en position de « suiveur » qu’en tant qu’innovateur (sic), affirmer que l’avenir de la gestion de contenu n’est pas la gestion de contenu Web mais le concept marketing de « gestion de contenu d’entreprise » qui, comme le précise l’article, relève plus du fantasme que la réalité.
    En bref, les solutions propriétaires se sont déjà cassées les dents. Les solutions open source paraissent séduisantes mais ne sont pas une panacée pour autant.