Affichage des articles dont le libellé est virtualisation. Afficher tous les articles
Affichage des articles dont le libellé est virtualisation. Afficher tous les articles

mardi 9 mars 2010

Cloud Computing : une révolution en marche accélérée

Le cabinet Pierre Audouin Consultants vient de publier une étude The European Software Industry mettant en avant la transformation de l'industrie du logiciel et de l'informatique vers une 'industrie lourde' basée sur les concepts et business modèles du Cloud Computing


Le marché du Cloud Computing a atteint 4 milliards d'euros en Europe en 2009, en progression de +20%. Cette croissance devrait se maintenir et ce mode de production aligné sur les besoins métiers s'appuyant sur des unités de production virtualisées disponibles au travers d'internet devrait représenter 13% du marché de l'informatique et des services en 2015.

vendredi 15 janvier 2010

Cloud Computing :Partenariat majeur entre Microsoft et HP

Steve Ballmer, CEO de Microsoft et Mark Hurd, Président et CEO d'HP, ont annoncé un nouveau partenariat et un investissement commun de 250 M$ « pour préparer leurs clients de l'informatique professionnelle de nouvelle génération au niveau de l'entreprise et du data center ».

Cet accord confirme la stratégie des géants de l'informatique et leurs investissements dans les technologies de la virtualisation d'applications et d'infrastructures informatiques (Software-As-A-Service).

Microsoft et HP vont investir 250 millions de dollars sur trois ans, pour mener en commun une stratégie d'intégration de produits destinée à "simplifier de façon significative» le déploiement des technologies Cloud dans les entreprises de toute taille.

La révolution est en marche pour transformer l'informatique en un outil de commodité aussi simple à utiliser que de brancher un appareil sur une prise de courant.

mercredi 13 janvier 2010

VMWare pourrait racheter Zimbra à Yahoo

VMWare serait sur le point d'acheter la suite Open Source Zimbra à Yahoo, sans doute dans l'objectif de l'intégrer à son offre View au sein d'un PC virtualisé. VMWare qui est un éditeur de solutions de virtualisation chercherait ainsi à remonter vers les solutions applicatives en complétant son offre.

lundi 4 janvier 2010

Les 10 technologies stratégiques pour 2010 selon le Gartner

Une stratégie technologique est définie par le Gartner comme ayant un impact significatif sur l'activité et le développement de l'entreprise dans les 3 ans à venir. Les éléments qui déterminent ce que le Gartner appelle un impact significatif incluent un potentiel de rupture sur l'IT ou le métier, la nécessité d'un investissement financier important ou le risque que pourrait entraîner une adoption tardive.

Ces technologies impactent les plans et autres initiatives de long terme. Elles sont stratégiques parce qu'elles sont aujourd'hui suffisamment matures pour une mise en œuvre et une large adoption ou parce que leur utilisation précoce peut apporter un avantage compétitif.

1. Cloud computing

Un nouveau modèle informatique dans lequel les fournisseurs proposent un ensemble de services aux entreprises ou aux particuliers. Les services de Cloud Computing peuvent être « consommés » de plusieurs manières pour développer une application ou mettre en œuvre un service. Bien sûr, le Cloud Computing ne supprime pas les coûts, mais en réalloue certains et en diminue d'autres.

2. Technologies analytiques avancées

L'optimisation et la simulation utilisent les outils et les modèles analytiques pour maximiser l'efficacité des processus métier et des décisions en examinant des résultats et des scénarios alternatifs, avant, pendant et après la mise en œuvre et exécution de ces processus.

Ceci peut être regardé comme troisième étape dans le mécanisme de prise de décisions opérationnelles. Les règles fixées et les règlementations établies autorisent des décisions sur la base d'informations fournies au bon moment. Ces informations peuvent être issues d'applications de type CRM, ERP ou d'autres applications.
La deuxième étape concerne la simulation, la prévision, l'optimisation sur des données issues des applications d'entreprises.
La troisième étape, celle qui concerne examine l'avenir et détaillent de manière plus précise l'étendu des possibles.

3. Virtualisation du poste client

La virtualisation apporte de nouvelles manières de mettre en œuvre les applications sur le poste client. En conséquence, le choix du type matériel de PC et même du système d'exploitation devient moins critique. Les entreprises devraient pro activement établir une feuille de route pour les 5 à 8 prochaines années sur l'évolution du poste client incluant la prise en compte des standards, le type de possession et le support ; système d'exploitation et des applications, déploiement et mises à jour ; et plans de gestion et de sécurité pour contrôler la diversité des systèmes et des environnements.

4. Green IT

L'informatique et les technologies de l'information peuvent être utilisées pour des « initiatives vertes ». L'utilisation de l'informatique, en particulier au sein des travailleurs du savoir peut considérablement augmenter le niveau de prise en compte des problématiques vertes. Les initiatives possibles dans ces domaines incluent la dématérialisation de tous types de documents, la réduction des voyages professionnelles et la mise en œuvre partielle du télétravail.

L'informatique peut également fournir les outils analytiques permettant de réduire la consommation d'énergie dans des activités sources de rejet de CO2 comme le transport des marchandises.

5. Remodelage du data center

Dans le passé, les principes de conception des centres de traitement des données étaient simples : estimation de la croissance des besoins pour les 15 à 20 ans à venir, puis construction du data center répondant à ces besoins.

Les data centers d'aujourd'hui sont construits sur de grands espaces équipés de systèmes d'alimentation redondants (Uninterruptible power supply), des systèmes de refroidissement à eau ou à air.

Cependant, les coûts sont réellement inférieurs si les entreprises adoptent une approche dite Pod-based (Performance Optimized Data Center) pour la construction et à l'extension des data centers. Si l'on pense que 1000 m² sont nécessaires sur le cycle de vie du data center, alors il faut concevoir l'emplacement pour le supporter, mais construire seulement ce qui est nécessaire à horizon cinq à sept ans. La réduction des dépenses de fonctionnement d'exploitation, qui constituent un élément non trivial des dépenses IT, permet de libérer des ressources financières pouvant être utilisées à d'autres projets ou investissements dans d'lT ou même dans les autres activités de l'entreprise.

6. Réseaux sociaux

Les salariés ne veulent pas avoir à gérer deux environnements informatique distincts : un pour leurs activités personnelles et un autre pour leur activité professionnelle. Les entreprises doivent se concentrer sur l'utilisation des réseaux sociaux dans l'entreprise et la participation et l'intégration avec les communautés externes publiques. Ne pas ignorer le rôle des réseaux sociaux pour réunir différentes communautés.

7. Sécurité et suivi d'activité.

Traditionnellement, la sécurité s'est concentrée à mettre une barrière permettant de s'isoler de l'extérieur, mais elle a évolué vers des activités de surveillance et les systèmes d'identification. Les professionnels de sécurité de l'information doivent relever le défi de détecter l'activité malveillante dans un flot constant d'événements discrets habituellement associés à un utilisateur autorisé et sont issus de sources multiples en termes de réseau, de systèmes et d'applications.

En même temps, les services spécialisés de sécurité doivent faire face demandes croissantes d'analyse d'activité en vue de rédiger des rapports imposés par les différentes réglementations en vigueur. Une large palette d'outils surveillance et d'analyse (redondant sur les plans des fonctionnalités) aide des entreprises mieux à détecter et étudier des activités suspectes - souvent avec des alertes en temps réel. En comprenant les forces et les faiblesses de ces outils, les entreprises peuvent les utiliser au mieux pour défendre les intérêts de leur entreprise et satisfaire aux exigences de la réglementation.

8. Mémoire Flash

La mémoire Flash n'est pas nouvelle, mais elle est en train d'évoluer dans les différents niveaux des systèmes de stockage. La mémoire Flash est un dispositif de mémoire à semi-conducteurs, désormais bien connus dans les clés USB et autres cartes d'appareils photo numérique. Elle est beaucoup plus rapide que le disque magnétique traditionnel, mais encore bien plus chère, même si le différentiel se réduit peu à peu. Grâce à cette réduction de prix, cette technologie devrait connaître un taux de croissance annuel supérieur à 100 % dans les prochaines années et devenir stratégique dans les beaucoup de secteurs IT. En outre, elle constitue un niveau supplémentaire dans hiérarchie du stockage pour les serveurs et les postes client dont les avantages principaux sont un faible volume, une faible dissipation calorifique, un niveau de performance et de fiabilité.

9. Virtualisation pour la disponibilité

La virtualisation fait partie des technologies stratégiques de ces dernières années. Elle est citée cette année dans la mesure où elle peut faciliter des opérations de migration d'application. Le processus de "migration live" permet de déplacer une machine virtuelle d'un noeud physique à un autre dans un temps très court (inférieur à un timeout TCP), ce qui permet au processus d'être totalement transparent pour les applications.

Ce type de mécanisme peut supprimer la nécessité d'utiliser du matériel à haute fiabilité et à tolérance de pannées, des logiciels de fail-over tout en assurant aux besoins croissants de disponibilité des systèmes.

10. Applications mobiles

A la fin de d'année 2010, 1.2 milliard de personnes détiendront ce que l'on appelle aujourd'hui les smartphones. Pour le simple iPhone qui constitue l'archétype de ce type de matériel, Il des dizaines de milliers d'applications sont déjà disponibles et ce malgré un marché relativement limité. Cela prendra encore du temps pour avoir des applications et autres solutions capables d'être mis en œuvre sur des PC et des smartphones. Une plus grande compatibilité au niveau des systèmes d'exploitation et des processeurs permettrait d'accélérer le développement et la disponibilité d'applications pour les mobiles.

Source : ITChannel et ChannelPro.uk

mercredi 14 octobre 2009

La High Tech, notamment l'industrie logicielle, crée plus d'emplois que les autres secteurs!

Les TIC - Technologies de l'Information et de la Communication vont créer 5,8 millions d'emplois et 75 000 entreprises dans plus d'une cinquantaine de pays d'ici 2013.

Cela représente une croissance de marché de 3% par an. "Ce qui est trois fois plus que la croissance moyenne globale" précise le cabinet d'étude IDC dans un rapport commandité par Microsoft.

Cette enquête a été menée dans les 52 pays qui représentent aujourd'hui 98% des dépenses informatiques mondiales, soit 1 milliards d'euros par an.

Parmi les raisons invoquées, une pleine renaissance technologique qui nous amène notamment vers un nouveau paradigme informatique comme le cloud computing et le Software-As-A-Service. Selon l'analyse cette profonde transition portera sur le "long terme".

L'industrie du logiciel ne représente cette année que 21% du total des dépenses TIC mais emploie plus de la moitié des effectifs du secteur - soit 51% sur plus de 18 millions de salariés.
Cette force dédiée aux logiciels générera d'ici quatre ans plus de 22% des revenus des TIC soit une croissance de 4,8% par an en valeur contre 3,4% pour les services et 2,2% pour les équipements matériels...

vendredi 18 septembre 2009

Des Nuages (Cloud Computing) pour réduire les dépenses informatiques du gouvernement

L'une des tâches du Directeur des systèmes d'information (DSI) de l'administration américaine, Vivek Kundra, est de réduire les coûts liés à l'informatique dans le budget du pays. A l'occasion d'une conférence au centre de recherche de la NASA mardi dernier, Vivek Kundra a estimé à 76 milliards de dollars le budget IT du gouvernement fédéral, dont 19 milliards consacrés à l'infrastructure. En ligne de mire la construction successive de nouveaux centres de données (faisant doubler la facture énergétique entre 2006 et 2008). Le département américain de la sécurité nationale en dispose à lui seul de 23.

Une des solutions proposées par Kundra est le Cloud Computing (l'image du "nuage" s'installe dans le vocabulaire de l'informatique). Une approche qui permettrait ainsi pour le cas précis du projet informatique du General Services Administration de ramener la facture de 2,5 millions de dollars par an à 800.000 dollars. Suite à cette initiative un site Web, http://www.apps.gov, a été mis à disposition. Son principe est de fournir aux agences gouvernementales, différents services IT, des capacités informatiques comme des serveurs virtuels de stockage et des applications à la demande.

A l'heure actuelle la rubrique Cloud Computing n'est pas encore achevée. Mais quatre services "cloud" apparaissent déjà et devraient être disponibles prochainement. Un service de stockage, des outils de développement de logiciel, de la puissance de calcul et des applications web. Cependant on ne sait pas encore s'il s'agira d'un Cloud totalement privé ou si le site fera appel à des infrastructures publiques comme celles d'Amazon.

Ce projet n'est quoi qu'il en soit qu'une première étape qui entend pour 2010 mettre en place plusieurs projets pilotes dans l'informatique à la demande. L'année prochaine devrait également être formalisée une politique gouvernementale en matière de sécurité des données, d'architecture et de certification. Le gouvernement espère grâce à ce programme réduire de façon significative les dépenses et l'impact energétique et environnemental causés par les systèmes IT aux Etats-Unis.

- Vidéo de la conférence tenue au centre de la NASA : http://redirectix.bulletins-electroniques.com/OzSdY

Source:
BE Etats-Unis numéro 177 (18/09/2009) - Ambassade de France aux Etats-Unis / ADIT - http://www.bulletins-electroniques.com/actualites/60527.htm

vendredi 11 septembre 2009

DSI : un métier en forte évolution

L'enquête Global CIO Study 2009 indique que les DSI déclarent consacrer 55 % de leur temps à des activités liées à l'innovation, contre seulement 45 % aux tâches liées à l'exploitation courante de l'environnement technologique.


- L’exploitation de l’information

L’exploitation de l’information en vue d’acquérir un avantage compétitif et d’améliorer le processus décisionnel est essentiel. Par exemple, les DSI plébiscitent l’informatique décisionnelle à 83% au niveau mondial et 74% en France et la considère comme un moyen privilégié d’optimiser la compétitivité de leur entreprise
- La fiabilité et la sécurité des informations

La fiabilité et la sécurité des informations figurent elles aussi en bonne place dans les préoccupations des DSI : 71 % d’entre eux au niveau mondial (66% en France) prévoient en effet de renforcer leurs investissements dans la gestion des risques et la conformité à la réglementation.


- La relation clients et partenaires

L’étude montre en outre que les clients et les partenaires font partie intégrante de l’équation de l’information, en tant que sources et bénéficiaires immédiats des connaissances générées.

De fait, 68 % des DSI estiment que les interactions avec les clients et les partenaires vont apporter un niveau d'intégration et de transparence sans précédent dans les cinq prochaines années. Cette priorité est encore plus marquée en France puisqu’elle arrive en position N°2 des projets prioritaires avec 72%.

Enfin, les DSI entendent également mener encore plus loin leurs programmes d’économies d’énergie : ils sont 76 % (72% en France) à avoir déjà lancé ou prévu des projets de virtualisation.

Encore un effort dans la direction de la virtualisation infogérée - le SaaS - et les DSI pourront effectivement se consacrer à la gouvernance, à la stratégie d'innovation orientée métier en évitant de se préoccuper au quotidien des problématiques de boulons et d'huile de coude...

jeudi 19 février 2009

Quel opérateur disposera le premier de son portail applicatif ?

Les opérateurs génèrent aujourd'hui leur revenu sur la vente de tuyaux de communication.
La taille et le débit de ces tuyaux augmente, leur prix baisse, sous la pression concurrentielle et la comparaison facilitée avec les offres concurrentes.

Il est stratégique pour ces opérateurs de trouver de nouvelles sources de revenus.
Comment facturer ce qui passe sur le tuyau en plus du tuyau lui-même ?

Des pistes grands public sont déjà explorées, comme la télévision sur mobile, la gestion de la sécurité et vidéo surveillance des appartements etc.

Dans le domaine des entreprises et du marché des professionnels les opérateurs préparent leurs projets de portails applicatifs. Les grands noms internationaux tels que British Télécom, Vodaphone ou Tesla ont déjà commencé à dégainer.

Qui sera le premier opérateur du marché français à proposer un portail applicatif ? C'est-à-dire un mode d'accès à des applicatifs professionnels à la demande, en mode SaaS - Software-As-A-Service, qui pourront être souscrits en même temps qu'un netbook et sa carte 3G+ ?

vendredi 13 février 2009

43% : le chiffre Green IT ?

43% c'est la hausse prévue pour les logiciels de virtualisation en 2009 !
43% c'est la baisse de facture électrique du S.I. que donne le Gartner comme objectif.

43% est donc le chiffre Green IT 2009...

Alors virtualisez, utilisez des logiciels en mode SaaS, et réduisez la consommation énergétique de vos parcs informatiques tout en augmentant productivité, flexibilité, et confort de vos utilisateurs.

samedi 31 janvier 2009

Le SaaS en 2009 : +42% malgré la crise !

IDC confirme la belle progression du SaaS aussi bien aux Etats-Unis où il aura séduit 76% des entreprises américaines d'ici la fin de l'année qu'en Europe.

Cela représente une augmentation de 7% par rapport aux anciennes prévisions.

Une étude récente réalisée cette fois par Gartner estime de son côté que 25% des solutions applicatives des entreprises seront distribués en mode SaaS d'ici 2011. D'après les analystes ce marché représentait 6,4 milliards de dollars en 2008.

La flexibilité, le paiement mensuel à la demande sans engagement, la transformation de lourds investissements initiaux en budgets de fonctionnement, la capacité d'essayer avant d'acheter, les fortes économies d'énergie, la mobilité accrue, et la rapidité de mise en œuvre sont autant de remèdes contre la crise.

mercredi 10 décembre 2008

HP fait évoluer son client léger pour bureaux virtuels

HP améliore son client léger pour mode client-serveur, pouvant être utilisé en mode SaaS, et l'appelle "HP Virtuel Clients Essentials". L'outil Session Allocation Manager est désormais supporté sur Linux en plus de Windows.

HP a amélioré le protocole de virtualisation RDP de Microsoft pour lui permettre de mieux distribuer des flux vidéo dont le contenu est désormais décodé sur le poste client.

Les périphériques USB sont mieux gérés, et le protocole RGS - Remote Graphics Software - a été revu pour qu'il puisse fonctionner à partir de serveurs non HP, son usage est tarifé à 45 euros par utilisateur et par moi, RDP étant gratuit.

lundi 14 avril 2008

L'informatique à la demande va bouleverser le paysage des systèmes d'Information, dixit John Chambers PDG de CISCO !

Le marché américain du SaaS - Software As A Service - est évalué par le cabinet Gartner à 5,1 milliards de dollars en 2007 et 11,5 milliards en 2011. Son homologue Forrester prévoit la désintégration du logiciel sous licence pour 2018-2020 du fait de la généralisation progressive des architectures virtuelles orientées services et du web 2.0/3.0.

John Chambers himself, dans son discours du Cisco Parnet Summit 2008 a débuté par
"Internet est en train de changer notre manière de vivre, de travailler, de jouer, et notre stratégie est claire : le réseau devient la plate-forme".

Et de poursuivre :
"Dans la prochaine évolution de l’internet, la personnalisation des contenus sera poussée au maximum, et les partenariats seront la clé pour s’affirmer sur le marché."

"Tout sera vendu comme un service, logiciels, ordinateurs, réseau et bande passante. Nous n’avons pas le choix : nous devons continuer à changer, en conservant le passé".

"Tout est service"


Pour approfondir ce sujet, un article très intéressant d'AgoraVox vous transportera dans ce cyber-monde. Profitez-en pour lire "The Big Swith : rewiring the World, from Edison to Google" de Nicolas Carr!


mardi 19 février 2008

La virtualisation arrive sur vos mobiles

La virtualisation est une technique permettant de faire fonctionner des applications logicielles dans des compartiments étanches indépendants du matériel sous-jacent.

En arrivant très prochainement sur vos mobiles elle va permettre d'en réduire cout, consommation, et d'en améliorer la sécurité.

Les mobiles utilisent en général deux processeurs, un pour les traitements temps réel liés à la gestion des communications, un autre pour les applications multimédia comme la fonction appareil photographique ou le logiciel de messagerie.

Avec un seul processeur la consommation baisse et l'autonomie de votre mobile s'améliore très notablement.

La technique de virtualisation va permettre de faire fonctionner toutes ces applications sur un seul processeur, réduisant ainsi le coût du mobile. En compartimentant les applications elle va améliorer la sécurité, le hacker accédant aux fonctions téléphoniques n'aura pas accès immédiatement aux données de votre logiciel de gestion de la relation client - CRM - mobile.

On pourra même imaginer d'avoir un applicatif fonctionnant en lien avec un opérateur et un autre avec un autre opérateur, sur le même mobile.

Une filiale de Philips annonce ainsi un téléphone à 100$ sous linux utilisant la technologie de virtualisation de virtuallogix.