04 novembre 2011

Utilisez-vous votre "tablette" (iPad, Android, …) pour travailler?

WiFi-Only Samsung Galaxy Tab - source : http://www.samsungusanews.com
Il y a quelques semaines, j’ai lu  un article de Mac Slocum[1], sur les améliorations à apporter aux tablettes afin qu’elles puissent remplacer les ordinateurs portables. A la fin de cet article Mac Slocum pose quatre questions :

  1. Utilisez-vous plusieurs appareils mobiles? Si oui, lesquels?
  2. Pour voyager – lequel/lesquels de ces appareils prendriez-vous?
  3. Avez-vous essayé d’utiliser uniquement une tablette? Qu’est-ce qui a fonctionné? Qu’est-ce qui n'a pas fonctionné?
  4. Quelles améliorations sont nécessaires, pour que vous puissiez travailler uniquement avec votre tablette?
Je vais essayer de répondre à ces questions.

Personnellement, j’utilise quatre appareils mobiles. Deux PC portables (un professionnel 15.4" et un personnel 17"). L’avantage de mon PC portable personnel c’est la taille de son écran, mais c’est aussi son inconvénient, car il est trop lourd. Mon PC portable professionnel est presque parfait. Grâce à ses performances et les programmes installés, il me permet de travailler depuis n’importe où, comme si j’étais au bureau. Son défaut reste son poids même s’il est plus léger que mon PC personnel.
Je dispose également d’une tablette Android HTC Flyer, que j’utilise principalement pour prendre des notes durant les séances et pour surfer sur le net tout en regardant la télévision tranquillement installé dans mon canapé. Je l’utilise aussi pour passer des films à mon fils lors de longs déplacements en voiture et je le laisse jouer de temps à autre. J’ai choisi cette tablette pour son format 7" et pour son stylet. Il me manque juste un module pour reconnaitre mon écriture et ainsi remplacer le clavier tactile dans les applications (comme ce que nous avions sur les Palm et le P800 ou le P900 de Sony Ericsson). Si vous avez une App, je suis preneur !
Finalement, j’emploie le Nexus S de Google pour téléphoner, surfer dans les transports en commun et comme hot spot wifi pour mon PC portable et ma tablette.

Pour répondre à la deuxième question, lors d’un voyage si je pouvais, je ne prendrais que ma tablette. Malheureusement cette dernière ne me permet pas encore de tout faire et je prends donc un PC portable et bien évidement mon téléphone mobile.

A la troisième question, je peux dire que depuis un mois, j’essaie de tout faire avec ma tablette. Je prends des notes lors de séances, je gère ma messagerie et je peux utiliser des plateformes collaboratives comme Sharepoint, Google docs ou live.com. Par contre, je ne peux pas encore travailler sur un remote desktop afin de faire une correction urgente sur une application. Un autre inconvénient est la dactylographie au kilomètre. Pour le moment, je prends des notes manuscrites sur Evernote et je tape les contenus importants dès que je suis de retour sur mon PC (j’écris trop mal pour Evernote).
En résumé, je peux dire que j’utilise ma tablette comme un super agenda avec carnet de note intégré et un porte document hight-tech.

Pour répondre à la dernière question et enfin pouvoir travailler uniquement sur ma tablette, j’aurai besoin, comme je l’ai dit ci-dessus, d’une application de reconnaissance d’écriture qui s’intègre avec Evernote. J’aurai aussi besoin de pouvoir accéder à distance à un ordinateur m’offrant tous les outils (Office, Adobe CS5, …) que j’utilise au quotidien. Ma tablette deviendrait ainsi un terminal ultra portable.

Et vous ? Il serait intéressant pour moi de connaître vos expériences. N’hésitez pas à me faire part de vos commentaires.

[1] Mac Slocum, O'Reilly Radar, Open Question: What needs to happen for tablets to replace laptops?, http://radar.oreilly.com/2011/10/open-question-tablets-replacing-laptops.html, publié le 17/10/2011 consulté en ligne le 18/10/2011

21 septembre 2011

Premier Cloud "privé" pour le secteur public français!


Atos et Microsoft ont annoncé mardi 20 septembre 2011 leur alliance pour délivrer des solutions de "Communication & Collaboration" basées sur Windows Server et Hyper-V [1].

Comme je l’avais rapporté en avril 2010 dans mon article "Le Cloud privé la solution à nos attentes?" :
Les prestataires de service "Cloud", …, pour respecter les différentes législations, ne peuvent pas monter un data center dans chaque pays. 
Steve Ballmer avait alors suggérer que des entreprises montent leur propre solution de Cloud. L’alliance entre Microsoft et Atos est un exemple concret de ce qu’il faut faire en matière de Cloud Computing pour garantir la sécurité et la confidentialité des données stockées dans le Cloud. En déployant une solution de Cloud en France Atos offre aussi un service qui respecte la base légale nationale et européenne.

[1] Atos, Atos présente ses nouvelles solutions Cloud pour le Secteur Public, http://atos.net/en-us/Newsroom/fr-fr/Communiques_presse/2011/2011_09_20_01.htm, publié le 20 septembre 2011, consulté en ligne le 20 septembre 2011

07 juin 2011

EcoCloud

"Faire une recherche sur Google consomme la même énergie que faire bouillir de l’eau pour une tasse de thé [1]… Dès 2015 l’EPFL aura des problèmes pour alimenter électriquement ses nouveaux serveurs!".
C’est par ces deux exemples que Martin Vetterli, doyen de la faculté Informatique et Communications (IC) à l’EPFL, a démarré mardi 31 mai, la journée de lancement du projet EcoCloud, au Rolex Learning Center de l’EPFL. EcoCloud est un consortium de 12 laboratoires qui travaillent sur des projets de recherche dans le domaine du Cloud computing.

L’EPFL ne sera pas le seul organisme à connaitre des problèmes de puissance électrique à l’avenir. Certaines entreprises rencontrent déjà ce problème et elles cherchent des solutions souvent palliatives.
Depuis le début de l’ère informatique, la puissance des ordinateurs a été généralement doublée tous les 18 à 24 mois (loi de Moore) et la consommation énergétique restait constante. Avec le développement rapide du web, de l’internet mobile et du Cloud computing, les besoins en ressources informatiques connaissent une croissance exponentielle. Par conséquent l’augmentation de la consommation électrique est elle aussi exponentielle afin d’assurer le fonctionnement des infrastructures techniques qui délivrent les services dans le Cloud.
Illustration : évolution puissance de calcul – consomation énergétique – besoins en ressource IT

Les enjeux vont donc être écologiques et surtout économiques. EcoCloud va donc travailler sur 3 axes - les données, l’énergie et l’intelligence, afin de garantir la viabilité économique du secteur des technologies de l'information (IT).

[1] Revealed: the environmental impact of Google searches, The Sunday Times, Jonathan Leake et Richard Woods, http://technology.timesonline.co.uk/tol/news/tech_and_web/article5489134.ece publié en ligne le 11 janvier 2009, consulté le 1er juin 2011.
Cet article a été mis à jour le 16 janvier 2009, pour préciser ce qu’englobe "une recherche Google". Selon Alex Wissner-Gross, faire "une recherche Google" consiste à interroger plusieurs fois le moteur de recherche avant de trouver la bonne information. Le coût énergétique de cette recherche dépend également du matériel utilisé.

22 mai 2011

PowerPoint dans le Cloud

Depuis plusieurs années, j’emploie régulièrement des solutions SaaS (Software as a Service) comme Google Docs ou Microsoft Office Live, pour backuper en ligne mes présentations PowerPoint. Je n’ai jamais apprécié utiliser ces solutions SaaS, pour créer en ligne une présentation. Google a la fâcheuse tendance à déformer certains graphiques "SmartArt" et Office Live de Microsoft n’est pas compatible avec mon browser favori - Chrome. Pour moi, ces solutions ne sont pas assez mûres et performantes, pour abandonner ma suite de bureautique favorite.
Google Docs et/ou Microsoft Office Live sont adaptés pour faire des corrections de dernière minute. Ils sont aussi utiles pour faire des présentations sans installation préalable d’un logiciel. Les autres outils de ces suites de bureautique sont aussi idéaux pour le travail collaboratif.


Le 24 mai prochain dans le cadre de la semaine nationale de l’ingénieur du CNAM, je vais faire un exposé sur le Cloud computing.
Flyer : CONFÉRENCE LE MARDI 24 MAI À 19H, LE CLOUD COMPUTING, Olivier Leclère, ingénieur CNAM
Pour préparer ma présentation, j’ai décidé d’employer Prezi. Cette solution, dans sa version gratuite, permet uniquement de créer ses présentations en ligne (elles peuvent être ensuite downloadées).
Il faut moins d’une heure pour prendre en main Prezi. Cette solution permet ensuite de réaliser des présentations originales et totalement différentes des traditionnelles diapositives PowerPoint. Malgré quelques limitations, comme l’impossibilité de choisir le format des puces, j’ai apprécié travailler avec ce produit. Je pense donc réutiliser ce dernier pour mes prochaines interventions dans et sur le Cloud.

UPDATE :
Cette présentation a entièrement été réalisée dans une solution de type SaaS - Prezi.

15 mai 2011

Chromebook et la sécurité des données dans le Cloud

Le journal Le Matin a publié samedi 14 mai dans son édition papier un article "Le Chromebook arrive". Pour cet article, j’ai été interviewé pour parler des problèmes de sécurité lié au Cloud computing.

Dématérialiser son PC et le mettre dans le Cloud comporte des risques, mais cela peut-être aussi une solution pour accéder un environnement familier en tout temps et tous lieux. Je développe mon point de vue sur le blog de mon entreprise : http://campus.hesge.ch/lti/index.php/le-chromebook-arrive/lti/.

10 mai 2011

Citrix "Virtual Computing"

Logo Citrix
Mardi 10 mai 2011, j’ai assisté à la journée Citrix "Virtual Computing" à Lausanne (Suisse). Ce fut une journée très "marketing", comme toujours lors de tels événements, mais les intervenants de Citrix et leurs invités comme Cisco ont présenté des concepts et des solutions intéressantes.


L’élément qui a principalement retenu mon attention lors de la présentation de Citrix a été cette phrase : "Cloud enabled data centers and enterprise enabled Clouds". Je pense effectivement et je le répète régulièrement lors de mes propres présentations, qu’il faut dès à présent transformer son data center. En mettant en œuvre les concepts du Cloud computing que j’ai décrit dans les autres articles de ce blog, l’entreprise bénéficiera d’un data center plus robuste. Grâce à l’élasticité, le data center de l’entreprise pourra plus facilement être adapté aux besoins ponctuels et grandissants du responsable des systèmes d’information de l’entreprise. Des économies pourront aussi être faites en optimisant l’utilisation des ressources hardware. Finalement, en industrialisant et en automatisant les processus de gestion du data center, un niveau de service garanti (SLA – Service Level Agreenment) pourra être proposé aux utilisateurs finaux. Comme je l’écris dans mon article "Cloud computing : risques et périls!", il existe, pour chaque entreprise, une solution de type Cloud qui permet à l’entreprise de répondre à ses besoins métier, tout en garantissant la sécurité de son système d’information. En réalisant un premier projet l’entreprise se sera familiarisée avec le concept de Cloud computing et ainsi continuera de migrer son système d’information dans le Cloud.


Les autres éléments qui ont retenu mon attention durant cette journée de présentations, sont d’ordre technique. Citrix a présenté de nombreux produits, deux m’intéressent particulièrement.
Le premier est "OpenCloud Bridge". Cette solution a été conçue pour faciliter la connexion entre le data center de l’entreprise et une solution de Cloud externe. Vu le manque de standard d’interopérabilité entre les acteurs du Cloud, pour moi ce type de solution a un avenir prometteur.

Le second produit qui m’a  interessé  est "NetScaler". Cette solution de type "application trafic manager" permet de répartir la charge entre plusieurs instances d’une application de façon transparente. Ce type de solution est généralement vendue comme un service indépendant et supplémentaire par les prestataires de service de type IaaS (Infrastructure as a Service). Avec ce produit, Citrix vise à nouveau l’interopérabilité.

En conclusion, je peux dire que contrairement à d’autres acteurs du marché, Citrix semble préparer son entrée sur le marché du Cloud de façon discrète,  en développant des outils pour faciliter l’intégration de ses produits dans le Cloud avec d les autres solutions du marché.

02 mai 2011

Chaos chez Amazon EC2 – plus jamais ça!

Le 21 avril 2011 le service EC2 (Elastic Compute Cloud) d’Amazon a subi une panne qui a duré près de 3 jours. Certains clients ont même perdu une partie de leurs données [1]. Selon Amazon [2] seul 0.07% du volume des données hébergées dans la zone impactée par la panne ont été définitivement perdues. Ce chiffre ne signifie que peu de choses, car nous ne saurons jamais combien de clients ont réellement perdu des données. Nous pouvons aussi nous poser la question, est-ce que ces clients avaient respecté les règles qu’Amazon impose pour que son SLA (service level agreement) soit applicable?

J’ai écrit un article sur la solution d’Amazon en janvier 2010. Dans cet article je parlais de leur SLA. Il est très contraignant et ne dédommage que difficilement les clients en cas de panne.
"Le client peut demander des dédommagements pour autant que l’ensemble de ses instances aient été indisponibles pour plus de 5 minutes et qu’il n’ait pas pu créer de nouvelles instances. Amazon recommande de travailler au moins sur deux zones."
Si les clients qui ont perdu des données et tous les autres impactés par la panne d’Amazon le 21 avril ont respecté la recommandation du SLA: "travailler au moins sur deux zones", nous pouvons nous poser une seconde question: quel aurait été l’impact d’une telle panne, s’ils avaient hébergé leurs données dans leur propre data centre ou chez un hoster (hébergeur) "traditionnel"? L’impact économique et technique aurait sûrement été plus grand, mais il aurait touché moins de clients!


Pour éviter de reproduire ce problème lors d’une prochaine panne, Amazon décrit les mesures qu’ils vont prendre dans un communiqué [2]. De nombreux articles sur le web [3, 4, 5] donnent aussi des recommandations afin de réduire les risques liés à une panne du même type que celle qu’Amazon vient de connaître. Pour moi ces recommandations sont des recommandations de bon sens et doivent être appliquées à tout projet qu’il soit critique ou pas. Ces conseils sont aussi valables pour tout projet hébergé chez d’autres prestataires de service de type Cloud ou des prestataires que nous pourrions appeler "traditionnels".

Dans ces recommandations, le premier point consiste à multiplier les instances de son système d’information. Contrairement à ce qu’Amazon recommandait "travailler au moins sur deux zones", il faut travailler sur au moins 2 régions. Pour Amazon une "région" (Region) est un déploiement de son infrastructure, totalement indépendant des autres "régions". Une zone de disponibilité (Availability Zones) est un sous ensemble d’une région. Les zones de disponibilité permettent de facilement créer un système redondant, car Amazon fournit des mécanismes pour répliquer automatiquement les données entre les différentes zones d’une même région.
Travailler avec plusieurs régions permet de cloisonner les instances de son système d’information, mais nécessite la mise en place de mécanismes complexes pour la synchronisation des instances. Amazon n’offre pas de mécanismes pour synchroniser ses instances entre deux régions.

Le deuxième point consiste à effectuer des backups réguliers de son système d’information. Lors de la panne du 21 avril, la première tâche effectuée par les ingénieurs d’Amazon a été de réaliser un "snapshot" des Elastic Block Store (EBS) impactés. Un snapshot n’est rien d’autre qu’un backup. Amazon recommande de faire des snapshots réguliers des EBS afin de garantir une sauvegarde à long terme de ses données. La technique du snapshot permet aussi de multiplier rapidement les instances. Au sein de nos entreprises, ne faisons-nous pas des backups réguliers? La fréquence et la méthode des backups dépendent évidement de la nature et de l’importance des données.
Le troisième point des recommandations consiste à employer une solution de Cloud de type hybride ou multi-prestataires. Cette solution peut prendre différentes formes:

  • Garder les données vitales au sein de son entreprise. Cette solution permet de rassurer sa direction, car l’entreprise garde le contrôle total sur ses données. Par compte elle est souvent aussi couteuse qu’héberger son propre Cloud privé. L’entreprise doit assurer par elle-même l’élasticité de sa solution, mais aussi la sécurité de cette dernière.
  • Mettre en place une solution de multiplication d’instance. Nous revenons ainsi au deuxième point, sur les snapshots, que j’ai évoqué ci-dessus. La copie principale du snapshot est conservée au sein de l’entreprise et elle est instanciée autant de fois que nécessaire, en interne et/ou chez un prestataire de service Cloud. Cette solution permet une très grande élasticité, mais elle n’est pas adaptée pour des solutions applicatives où l’utilisateur doit éditer les données.
  • Utiliser plusieurs prestataires de service. Cette solution permet de réduire les risques de pannes. Par compte elle est souvent plus difficile à mettre en œuvre, car il n’existe pas de standards.

Pour conclure cet article, je peux dire qu’Amazon ne peut être tenu entièrement responsable pour la perte de données évoquée dans l’article "Panne dans le cloud: Amazon perd des données de ses clients" [1]. Il faut lire attentivement le SLA. En fonction de l’importance de ses données, il faut mettre en place une solution adaptée. Cette solution doit mettre en œuvre les solutions décrites ci-dessus. Elle devra être déployé dans des data centres entièrement indépendant. La solution devra être backupée régulièrement. Idéalement elle devra être hybride et/ou multi-prestataires.
Pour garantir le bon fonctionnement de sa solution Cloud, cette dernière devra être entièrement automatisée du backup à la multiplication d’instances.

[1] Panne dans le cloud: Amazon perd des données de ses clients, Nicolas Paratte - ICT journal, http://www.ictjournal.ch/fr-CH/News/2011/04/29/Panne-dans-le-cloud-Amazon-perd-des-donnees-de-ses-clients.aspx, publié en ligne le 29 avril 2011, consulté le 30 avril 2011
[2] Summary of the Amazon EC2 and Amazon RDS Service Disruption in the US East Region, Amazon web services, http://aws.amazon.com/message/65648/, publié en ligne le 29 avril 2011, consulté le 29 avril 2011
[3] How SmugMug survived the Amazonpocalypse, Don MacAskill, http://don.blogs.smugmug.com/2011/04/24/how-smugmug-survived-the-amazonpocalypse/, publié en ligne le 24 avril 2011, consulté le 28 avril 2011
[4] The Cloud is not a Silver Bullet, Joe Stump, http://stu.mp/2011/04/the-cloud-is-not-a-silver-bullet.html, publié en ligne le 25 avril 2011, consulté le 28 avril 2011
[5] Seven lessons to learn from Amazon's outage, Phil Wainewright ZDNet, http://www.zdnet.com/blog/saas/seven-lessons-to-learn-from-amazons-outage/1296, publié en ligne le 24 avril 2011, consulté le 28 avril 2011

13 avril 2011

Cloud computing : risques et périls!

Mardi 12 avril 2011, j’ai fait une présentation intitulée "Cloud computing : risques et périls"  à la conférence sur la Protection des données et Cloud computing du Clusis.

J’ai commencé ma présentation par donner ma définition du Cloud computing et présenter la pyramide du Cloud. Durant cette introduction, j’ai présenté un nouveau concept qui commence à se répandre dans monde du Cloud. Il s’agit de la notion de "community Cloud". Ce dernier est une forme de coopérative appliquée aux systèmes d'information. Cela permet de partager les coûts liés à un projet de type Cloud "privé" entre plusieurs entreprises désirant partager des ressources dans le cadre d’un projet, ayant une entreprise commune (par exemple : une entreprise franchisée) ou des entreprises qui ont un métier similaire et qui n’ont pas les ressources nécessaires pour déployer un Cloud "privé" (par exemple : des hôpitaux).
Durant cette première phase de ma présentation, j’ai également parlé de la jeune startup DotCloud qui a développé une solution de type PaaS (Platform as a Service) qui permet aux développeurs de développer dans de nombreux langages sans se soucier des problèmes de scalabilité et d’élasticité. Cette plate-forme est hébergée sur la solution de IaaS (Infrastructure as a Service) d’Amazon. Cette solution a pour avantage de bénéficier d’une plate-forme robuste et éprouvée avec Amazon, mais elle montre aussi de nouveaux risques et périls comme le SLA.

La deuxième partie de ma conférence a principalement consisté à lever des interrogations sur les risques et périls du Cloud et à donner des pistes de réflexions. Personnellement, j’ai regroupé ces risques et périls en quatre catégories.
La première catégorie concerne la sécurité physique des données. Quelle est la nature des données publiques - confidentielles ou secrètes? Est-ce que mes données sont encryptées sur le Cloud? Est-ce que je peux les crypter? Est-ce que le prestataire est certifié ISO 27000? Est-ce qu’il a été audité SAS 70 par exemple? Existe-t-il des normes et standards nationaux pour la certification et l’auditatbilité?
Ma deuxième catégorie porte sur les problèmes légaux. Durant cette conférence nous venions d’avoir deux présentations, une sur la loi fédérale du 19 juin 1992 sur la protection des données (LPD) en Suisse et l’autre sur l’agrément un nouvel outil pour accompagner les institutions en matière de protection des données dans leurs projets informatiques et technologiques. Je n’ai donc pas réellement évoqué les problèmes légaux nationaux, par compte j’ai insisté sur les problèmes légaux internationaux comme l’USA PATRIOT Act. Cette loi donne au FBI le pouvoir de demander à n'importe quelle organisation de fournir toutes les pièces tangibles pour une enquête de lutte contre le terrorisme international ou les activités d'intelligence clandestines. Des lois semblables peuvent entrer en vigueur  dans tous pays. Elles ne permettent pas de garantir la sécurité et la confidentialité des données traitées sur des plateformes de "Cloud Computing" domiciliées en dehors du territoire ou exploitées par des sociétés basées à l’étranger.
La troisième catégorie de risques et périls porte sur la dépendance. Le débat existe depuis de nombreuses années en matière d’open source. Il est encore plus fort avec le Cloud, car il n’existe pas encore de standards. L’IEEE (Institute of Electrical and Electronics Engineers) a annoncé le 4 avril 2011 [1], qu’il allait créer un groupe de travail pour définir les standards en matière de Cloud computing. En matière de dépendance il faut aussi réfléchir à la dépendance réseau. Que faire en cas de panne ou coupure réseau? Par exemple, que faire si les liens vers d’autres pays sont coupés? Le dernier point à vérifier en matière de dépendance est la viabilité de l’entreprise. Ce point est d’autant plus important, car il n’existe que peu de standard en matière de Cloud.
La quatrième catégorie que j’ai présentée lors de cette conférence est le SLA (Service Level Agrement). Avant de signer un SLA il faut vérifier le niveau de service 99.95% (~4 heures d’arrêt par an) ou 99.999% (~5 minutes d’arrêt par an). Que couvre ce SLA? Panne machine? Panne réseau? Panne électrique? Quels sont les conditions pour que cela soit applicable? Quelles sont les pénalités. Plus les pénalités sont élevées plus le prestataire de service à intérêt à faire fonctionner sa solution. Dans le cas contraire il risque la faillite.

J’ai conclu ma présentation en présentant mon modèle ci-dessous.

Matrice de solutions Cloud

En fonction du besoin métier, de la criticité de l’information et du degré de confiance dans le Cloud, le chef de projet devra choisir la case de la matrice qui lui convient. Plus le bleu de la cellule est foncé, plus je peux garder le contrôle et la maîtrise de mon système d’information. Inversement plus la couleur est claire et plus mon système d’information sera vaporeux. Je risque donc de violer les lois sur la protection des données, de perdre une partie de mes données ou ne pas pouvoir récupérer et supprimer mes données du Cloud, mais je me serai familiarisé avec le Cloud!


[1] IEEE LAUNCHES PIONEERING CLOUD COMPUTING INITIATIVE, IEEE, http://standards.ieee.org/news/2011/cloud.html, publié le 04/04/2011, consulté le 04/04/2011

12 avril 2011

g-Cloud (government Cloud) vs. Cloud Computing

En matière de "Cloud Computing", gouvernements et entreprises ont des besoins similaires. Tous deux cherchent des solutions sécurisées, fiables (offrant de la haute disponibilité avec un SLA de 99,99…%) et économiquement intéressantes. Dans cet article je vais donc rappeler quelques principes de bases. Puis, je parlerai des différences entre les deux types de Cloud.

Le Cloud Computing, comme je l’ai écrit dans mon article sur "La pyramide du Cloud Computing", offre des services (IaaS, PaaS et SaaS) qui peuvent être hiérarchisés en trois catégories : "infrastructure", "platform" et "application".

Sur l’image ci-dessus et sur les images suivantes plus le bleu est foncé, plus le gouvernement / l’entreprise peut contrôler et garder la maîtrise sur ses données et inversement plus le bleu est clair et plus il est difficile de contrôler et de garder la maîtrise de son système d’information.

Ces trois catégories de services peuvent être déployées selon plusieurs modèles, comme je l’ai décrit dans mon article "Public et Private Cloud".
Les "Clouds" publics sont généralement exploités par des sociétés tierces comme Amazon, Google, Microsoft, GoGrid, etc. Ce sont des infrastructures mutualisées et partagées par un grand nombre d’utilisateurs. Cela permet de bénéficier d’économies d’échelles.
Les "Clouds" privés sont des solutions dédiées à un client. Ils sont hébergés soit au sein de l’entreprise / du gouvernement ou chez un prestataire de services (infrastructure dédiée). Cela permet de garder un plus grand contrôle sur les données.
Les "Clouds" hybrides combinent les deux types de "Cloud". Ce modèle permet de garantir la sécurité et la confidentialité des données tout en offrant la possibilité d’absorber une plus grande charge de manière temporaire.

 Un gouvernement / une entreprise n’aura pas le même contrôle sur ses données, en choisissant d’héberger sa solution (par exemple Oracle) en interne, sur un "Cloud" privé ou à l’autre extrême sur un "Cloud" public, en utilisant un service de type "Software as a Service". Il devra donc choisir sa solution de "Cloud Computing" en fonction de la criticité de son information.
Nous pouvons donc définir trois niveaux de criticité de l’information : publique, confidentielle et secrète. L’information publique peut être accessible par tout le monde. Cette information est rendue publique au travers de site web, d’application ou de web service. L’information classée secrète doit être accessible uniquement à des personnes clairement identifiées. Si cette information est divulguée au public ou arrive entre les mains d’un autre gouvernement, cela pourrait nuire à la sécurité nationale. Toutefois, certaines administrations comme l’U.S. Air Force [1], ont mandaté des spécialistes du "Cloud" pour étudier et développer des solutions capables de protéger les données sensibles d’un gouvernement. Entre ces deux extrêmes, nous retrouvons toute l’information que nous n’aimerions pas que d’autres personnes connaissent, comme par exemple notre dernière déclaration d’impôts.



g-Cloud vs. Cloud Computing

Nous venons de rappeler les concepts de base du "Cloud Computing". Ces concepts sont valables aussi bien pour les entreprises que pour les gouvernements. Plusieurs points  font la différence entre le "Cloud Computing" pour les entreprises et le "g-Cloud" pour les gouvernements.
Le premier point concerne la législation. Par exemple à Genève (Suisse) nous avons la LIPAD [2]. Cette loi, qui s’applique aux institutions publiques, n’interdit pas à ces dernières d’héberger des données publiques à l’étranger. Par contre, comme toutes les lois du même type (par exemple : la loi fédérale du 19 juin 1992 sur la protection des données (LPD) en Suisse, la loi n°78-17 relative à l'informatique, aux fichiers et aux libertés du 6 janvier 1978 en France ou la loi relative à la protection de la vie privée à l'égard des traitements de données à caractère personnel (8/12/1992) en Belgique), elle vise à protéger les données à caractère personnel. Ces lois ne s’appliquent pas uniquement au "Cloud Computing", mais d’une façon plus générale à tous les traitements de données au sein d’une administration publique et/ou d’une entreprise (en fonction du pays). De plus, ces lois contiennent des restrictions quant à la transmission des données personnelles à des tiers, ce qui limite les possibilités d’utilisation du "Cloud Computing".
Mon second aspect en matière de législation couvre les lois applicables dans le pays de domiciliation des serveurs ou de domiciliation des entreprises qui commercialisent les services. Par exemple aux États-Unis, l’USA PATRIOT Act [3] donne au FBI le pouvoir de demander à n'importe quelle organisation de fournir toutes les pièces tangibles pour une enquête de lutte contre le terrorisme international ou les activités d'intelligence clandestines. Des lois de ce type, qui peuvent être décrétées de façon inattendue, ne permettent pas de garantir la sécurité et la confidentialité des données traitées sur des plateformes de "Cloud Computing" domiciliées en dehors du territoire du gouvernement.

Le deuxième point qui peut faire la différence entre le "g-Cloud" et le "Cloud Computing" est la confiance. Suivant la nature et l’importance du projet, avant de déployer un projet sur le "Cloud", il faut obtenir la confiance des utilisateurs. Pour un gouvernement, ce groupe d’utilisateurs varie fortement d’un projet à l’autre. Le groupe s’étend du fonctionnaire au citoyen sans oublier les élus. Par exemple, héberger sur le "Cloud" une application qui gère les stocks de sels pour déneiger les routes, nécessitera d’obtenir la confiance d’un petit groupe de fonctionnaires. A l’autre extrême, héberger une application de vote par internet ou une application pour déclarer ses revenus ainsi que sa fortune en ligne nécessitera de gagner la confiance des élus et des citoyens.
Pour gagner cette confiance la sécurité doit être au maximum et il faut pouvoir facilement auditer la solution. En matière de sécurité, il existe des normes (par exemple : ISO 27000), des lois (par exemple : aux États-Unis FISMA (http://csrc.nist.gov/groups/SMA/fisma/ , loi américaine spécifique à la gestion de la sécurité des systèmes d’information dans les administrations) et des recommandations issues des bonnes pratiques de l’industrie. Valider la bonne mise en œuvre de ces normes, lois et recommandations n’est pas forcément facile, voir impossible pour une administration. Il faut donc faire confiance à un tiers qui effectuera un audit en suivant une norme comme SAS 70 (norme américaine en termes d’audit). Chaque pays, chaque entreprise doit donc définir ses normes de sécurité et les standards de validation de ces derniers.

Le dernier point qui peut faire la différence entre le "g-Cloud" et le "Cloud Computing" pour les entreprises est la dépendance. En choisissant d’héberger un projet ou de consommer un service sur le "Cloud" un gouvernement ou une entreprise devient ainsi dépendant. Cette dépendance porte sur les aspects technologiques et logiciels, ainsi que sur les aspects réseau internet.
Pour les aspects technologiques et logiciels, l’Open Cloud Manifesto a été créé au printemps 2009 [4], mais aucun des "pionniers" et acteurs majeurs du Cloud comme Amazon, Google, Microsoft Azure ou Salesforce n’ont signé ce manifeste. Pour remédier à ce manque de standards, l’IEEE (Institute of Electrical and Electronics Engineers) a annoncé le 4 avril 2011 [5], qu’il allait créer un groupe de travail pour définir les standards en matière de Cloud computing.  Ce manque de standards ouverts peut poser des problèmes d’étique à certaines administrations qui sont demandeuses (voir contraintes) d’utiliser des solutions open-source.
Le réseau est également un élément critique en termes de dépendance pour un gouvernement. En effet, en fonction de la domiciliation des serveurs, le réseau traverse un certain nombre de pays. En fonction des relations diplomatiques, ainsi que de la base légale de ces pays traversés, l’accès aux serveurs du Cloud peut être bloqué.

En conclusion, je peux dire qu’un gouvernement peut comme n’importe quelle entreprise déployer des applications, des services ou consommer des services sur le Cloud. Comme toutes les autres entreprises, l’administration devra choisir la solution et le modèle de déploiement qui lui permettra de ne pas être dans l’illégalité. Elle devra respecter certaines normes et être auditable. Finalement, cette solution devra être acceptée par tous les acteurs du projet.
Certaines administrations utilisent déjà des services dans le Cloud. C’est le cas de l’Administration fédérale suisse avec son projet swisstopo [6]. Ce projet a permis de réduire le délai de mise en service d’un nouveau service cartographique. Migrer sur le Cloud offre à swisstopo une plus grande élasticité des infrastructures et par conséquent une meilleure qualité de service pour ses internautes.

[1] IBM, U.S. Air Force Selects IBM to Design and Demonstrate Mission-Oriented Cloud Architecture for Cyber Security, http://www-03.ibm.com/press/us/en/pressrelease/29326.wss, publié le 4/02/2010, consulté le 18/11/2010
[2] GRAND CONSEIL de la République et canton de Genève, Loi sur l’information du public, l’accès aux documents et la protection des données personnelles (LIPAD), http://www.ge.ch/legislation/rsg/f/rsg_a2_08.html, entrée en vigueur 1/01/2010, consulté le 20/11/2010
[3] Senate and House of Representatives of the United States of America, Uniting and Strengthening America by Providing Appropriate Tools Required to Intercept and Obstruct Terrorism (USA PATRIOT Act) act of 2001, http://www.gpo.gov/fdsys/pkg/PLAW-107publ56/pdf/PLAW-107publ56.pdf, entrée en vigueur 26/10/2001, consulté le 11/11/2010.
[4] Open Cloud Manifesto, http://www.opencloudmanifesto.org/ , consulté le 11/04/2011
[5] IEEE LAUNCHES PIONEERING CLOUD COMPUTING INITIATIVE, IEEE, http://standards.ieee.org/news/2011/cloud.html, publié le 04/04/2011, consulté le 04/04/2011
[6] AWS Case Study: swisstopo, Amazon, http://aws.amazon.com/solutions/case-studies/swisstopo/, consulté le 15/11/2010

11 avril 2011

2011!

Depuis plusieurs mois, je n’ai eu que peu de temps à consacrer à mes recherches personnelles en matière de Cloud Computing et Web 2.0. Heureusement, d’ici quelques jours, je vais terminer un des gros projets que j’ai à réaliser en 2011.

Il y a 1 an (en janvier 2010), je vous parlais de thématiques comme le Cloud Computing, internet mobile, AR et HTML5 que j’allais étudier durant l’année 2010. Où en somme-nous aujourd’hui en avril 2011 ?
Le Cloud Computing, comme l’avait prédit et annoncé le Gartner, est un concept technologique sur la pente descendante de la courbe de hype du Gartner (cf. mon article : Courbe de hype 2010 pour les technologies émergentes). Mis à part les craintes que nous pouvons avoir concernant la sécurité, un des problèmes majeurs du Cloud découle de la législation. Cette thématique a peu été étudiée et elle soulève des interrogations telles que : Puis-je légalement héberger mes données à l’étranger ? Est-ce que mes données sont légalement bien protégées à l’étranger ? A l’heure actuelle, je suis entrain de réfléchir sur cette thématique et j’espère publier rapidement un petit article à ce sujet sur ce blog.
Un autre aspect que j’avais mentionné dans mon article l’année passée, est l’internet mobile. Le marché augmente rapidement. Nous constatons aussi une guerre entre les iPhone, les Android et les autres systèmes. Qui va l’emporter ? Est-ce que le web tel que nous le connaissons depuis plus de 15 ans est entrain de disparaitre au profit des "apps" ? C’est en tout cas ce que Wired nous a annoncé fin août 2010 (http://www.wired.com/magazine/2010/08/ff_webrip/all/1 - The Web Is Dead. Long Live the Internet).
Pour moi, la réalité augmentée (AR en anglais) n’a pas décollé en 2010 ! Comme je l’avais dit l’année passée, il manque un standard interopérable pour lancer le développement d’applications.
Finalement, l’HTML5 commence à être supporté par toutes les dernières versions des browsers, mais aucun standard définitif n’a été publié. J’ai par compte fait 2-3 tests et je trouve cette nouvelle version appréciable et prometteuse pour concurrencer les apps.

Assez parlé du bilan de 2010, qu’est-ce que j’attends de 2011. Pour moi en 2011 le Cloud va continuer à changer nos vies et surtout changer notre façon de travailler. Je veux personnellement me lancer dans la rédaction d’un doctorat sur cette thématique. Depuis septembre j’essaie de délimiter un sujet innovant dans le domaine. J’ai commencé par réfléchir à la thématique du g-Cloud : gouvernement Cloud. C’est un domaine encore peu exploré, avec un potentiel économique important, du moins dans un pays comme les États-Unis. En Europe, les États sont souvent trop petits pour pouvoir amortir de très grosses infrastructures. Par contre nous pouvons reprendre les concepts du Cloud afin d’améliorer la qualité du service informatique, tout en rationalisant les coûts et en préservant un peu plus l’environnement (Green IT). Depuis quelques jours et surtout depuis les problèmes au Japon, je réfléchis également au "service recovery" où le Cloud peut-être une solution en la matière. Avoir ses données et ses applications dans le Cloud permet aussi d’être plus agile.