След като отбелязахме петата годишнина на нашето ежегодно проучване на дигиталната вселена,  смятаме, че е наше задължение да направим преглед на това, което сме научили за нея през годините. Винаги сме знаели, че тя е голяма - през 2010 година премина бариерата на Зетабайта. През 2011 количеството създадена и копирана информация ще надхвърли 1.8 Зетабайта (1.8 трилиона гигабайта), което означава ръст с фактор 9 само за пет години. Тъй като в съвременното общество информация е пари, oчакваният ефект е да се генерира стойност от извличането на точната информация от дигиталната вселена, позната на микрокосмическо равнище на всеки средностатистически директор "Информационни технологии" (CIO).

Предлагат се нови  средства за управление на съхранението на данни, чиято цел е да се съкратят разходите за частта от дигиталната вселена, която ние съхраняваме (примери за това са дедупликацията, автоматичното разполагане на данните и виртуализацията),  както и да ни помогнат да решим каква информация да съхраняваме.

Все по-модерните решения за облачни инфраструктури - обществени, частни и хибридни - осигуряват на предприятието нови възможности за икономии от мащаба, бързина и гъвкавост, за разлика от традиционните ИТ среди. В дългосрочен план това ще бъде от първостепенно значение за управлението на дигиталната вселена.

Облачните инфраструктури са ключови с оглед на присъщата им възможност за използването на информационните технологии като външна за компанията услуга. Като добавим към това феномена "големи данни" (big data), организациите ще бъдат изключително заинтересовани и мотивирани да използват ИТ като външна услуга, вместо да инвестират  в собствени системи.

"Journey to the Cloud" или пътешествието към създаването на облачна инфраструктура

Тъй като цифровата вселена се разширява и става все по-сложна, обработката, съхранението, управлението, защитата и разпореждането с информацията в нея също стават все по-сложни.

Обърнете внимание на това:  През следващото десетилетие броят на услугите (виртуални и физически) по света ще нарасне с коефициент 10, обемът на информацията, управлявана от дейта центровете на предприятията - с  50, а броят на файловете, с които трябва да работят дейта центровете - най-малко с коефициент 75. Междувременно, броят на ИТ специалистите по света ще се увеличи по-малко от 1.5 пъти.

В резултат на това уменията, опитът и ресурсите за управлението на всички тези битове данни ще стават все по-редки и по-специализирани, изисквайки нова, гъвкава и мащабирана ИТ инфраструктура, простираща се извън ресурсите на предприятията. Това днес наричаме cloud computing.

По-голямата част от придвижването към „облачни" архитектури днес се осъществява чрез  широко разпространеното възприемане на виртуализацията. Миналата година за пръв път бяха доставени повече виртуални сървъри, отколкото физически такива. Оценката на IDC е, че днес близо 10% от информацията, която се обработва от сървърите, е през виртуализирани системи, като се очаква този процент да нарасне с повече от 20% през 2015 година. Някои по-големи организации дори и днес работят със 100% виртуализирани системи.

Сигурност в дигиталната вселена

За първи път миналата година измерихме обема на информацията в дигиталната вселена, изискваща определено ниво на сигурност. Плашещата реалност, която установихме, е, че обемът на информацията, която трябва да бъде защитена, нараства по-бързо от нашата способност да я защитим, тъй като служителите използват повече мобилни устройства, потребителите съзнателно (и несъзнателно) споделят повече лични данни, а фирмите намират нови начини да усвояват тези данни.

Голямата стойност от „големите данни"

Големите данни означават изключителна динамика, която изглежда се появява от нищото. Но в действителност те не са нещо ново. Големите данни съществуват благодарение на евтиното съхранение, навлизането на технологията за улавяне на данни, увеличаващите се връзки към информацията чрез  облачни инфраструктури и виртуализирано съхранение, както и на иновативни софтуерни и анализаторски инструменти. Големите данни не са "нещо", активност, прехвърляща много ИТ граници. IDC ги определя по следния начин:

Технологиите „големи данни" описват ново поколение технологии и архитектури, чието предназначение е по икономичен начин да извличат стойност от много голям обем най-разнообразни данни, като осигуряват възможност за високоскоростно събиране, откриване и/ или анализ.

Доставчиците на облачни инфраструктури ще играят основна роля в почти всеки аспект от безкрайното пространство на големите данни. Те ще бъдат сред най-важните събирачи на потоци от данни и съдържание. Освен това ще са едни от най-агресивните ползватели на системи за големи данни, за да генерират свой собствен бизнес. Също така те ще бъдат и в позиция да правят възможно използването на големи данни от организации с технически познания, но с ограничени ресурси (чрез  лесно временно осигуряване на големи изчислителни ресурси и масиви от данни). Например въз основа на платформите за големи данни, базирани на облачни инфраструктури, за по-малките инженерингови и архитектурни фирми ще бъде практично да имат достъп до големи изчислителни ресурси за кратки периоди от време, без да трябва да изграждат своя собствена инфраструктура.

Големите данни са както голяма възможност, така и голямо предизвикателство за всеки директор "Информационни технологии" (CIO). Почти всеки ИТ мениджър жадува да превърне ИТ в по-високо ценен актив на организацията. Тези системи са предпоставката и същността на всички проекти за големи данни, които обикновено са на границите на дейността, където са заложени възможностите за разрастване на бизнеса и опциите за съкращаване на разходите.