كتبت في مقال سابق عن ثورة البيانات الضخمة، وأطلقت عليها ثورة المعلومات الخامسة. وهذه الثورة توفر فرصا ربحية متعددة للشركات، وفي الوقت ذاته توفر فرصا كبيرة لتطوير أداء المؤسسات البحثية والحكومات. تعرف شركة جارتنر (Gartner Inc) -المتخصصة في أبحاث واستشارات تقنية المعلومات- البيانات الضخمة: بأنها “الأصول المعلوماتية كبيرة الأحجام وسريعة التدفق وكثيرة التنوع، والتي تتطلب طرق معالجة مجدية اقتصادياً ومبتكرة من أجل تطوير البصائر وطرق اتخاذ القرارات”. وهذه البيانات تشمل ما ننتجه كمحتوى رقمي سواءً كان كتابة أو صور أو خلاف ذلك، أو كانت بيانات تنشأ عن لا نحتاج إلى نظرية علمية تفسر هذا الترابط استخدام الأجهزة الإلكترونية أو الإنترنت أو التعاملات التجارية أو غيرها. وتشمل بالطبع المشاركات في وسائل التواصل الاجتماعي بأشكالها المتعددة. وتقدر شركة آي بي إم أننا ننتج حوالي مليوني ونصف تريلون بايت يومياً. ونظراً لتنوع هذه البيانات وتعقيدها فإنها تمثل تحدياً جديداً لمعالجي البيانات، وهو ما أدى إلى تطور طرق وأساليب تحليل البيانات مما كان يعرف سابقاً بالتنقيب في البيانات (data mining)، والذي كان محصوراً بشكل كبير في تحليل قواعد البيانات التقليدية، إلى ظهور علم البيانات كما ذكرت في المقال السابق. وقدرت مؤسسة مكينزي العالمية (McKinsey Global Institute) في تقرير لها في عام 2011م، أن الولاياتالمتحدةالأمريكية وحدها تواجه نقصا لحوالي 140،000 إلى 190،000 من العاملين الذين يتمتعون بمهارات عميقة في التحليل، إضافة إلى مليون ونصف من المدراء والمحللين الذين يستطيعون تحليل البيانات الضخمة واتخاذ القرارات بناء على النتائج. وتقدر دراسة لاتحاد التسويق المباشر (Direct Marketing Association) أن التسويق الرقمي المعتمد على البيانات في الولاياتالمتحدةالأمريكية حقق عوائد بلغت 156 بليون دولار، وساهم في توفير أكثر من 675،000 وظيفة في 2012م. وتتوقع المؤسسة البحثية المتخصصة في إحصاءات تقنية المعلومات آي دي سي (IDC) أن يرتفع إنفاق المؤسسات على البيانات الضخمة مما يقارب 3 بلايين دولار في 2010م إلى حوالي 17 بليون دولار في 2015م. واشتهر مؤخراً أحد الكتب المهمة، والذي يشرح هذه الظاهرة وآثارها، وهو كتاب "البيانات الضخمة: ثورة سوف تغير كيف نعيش، نعمل، ونفكر "(Big Data: A Revolution That Will Transform How We Live، Work، and Think)، والذي ألفه متخصصان في شؤون المعلومات والإنترنت وأحدهما أستاذ في جامعة أوكسفورد البريطانية العريقة (Oxford University)، والآخر محرر في مجلة "إكونومست" المرموقة (The Economist). ويقدم المؤلفان عدة نواح مهمة لتأثير البيانات الضخمة، أحدها: هو ما أطلقا عليه "التحويل إلى بيانات" (Datafication)، وهو ليس مجرد تحويل المعلومات إلى صور رقمية يمكن الاحتفاظ بها، والوصول إليها عبر الأجهزة، بل تحويلها إلى بيانات يمكن تحليلها واستخلاص معلومات بشكل آلي منها. ولعل أوضح الأمثلة على ذلك هو مشروع كتب جوجل، الذي لا يكتفي بتوفير صور رقمية للكتب، وإنما تحويلها إلى صيغة تقرأ آلياً وتمكن من البحث في محتويات الكتب. والملاحظة الثانية المهمة: هي استخدام البيانات لغرض ثانوي غير الغرض الأصلي، أو ما أطلقا عليه أثر البيانات (Data Exhaust). فبينما كانت البيانات سابقاً تجمع وتخزن لاستخدام معين ثم لا يتم المحافظة عليها، شاعت الآن وسائل أخرى للاستفادة من هذه البيانات لأغراض مختلفة. فعلى سبيل المثال: تستفيد شركة جوجل من أخطاء المستخدمين الإملائية في كلمات البحث لتطوير المصحح الإملائي (spell-checker)، عن طريق تطوير قاموسها والاستفادة من النتائج التي كان يقصدها المستخدمون. وبالطبع يرى المؤلفان أن هذه البيانات ليست كلها على نفس المستوى من الدقة والفائدة، لكن ضخامتها وإمكانية الاستفادة من جميعها تعوض عن دقتها. فبينما يعتمد المنهج الإحصائي التقليدي على جمع عينة نموذجية من البيانات، والتي تكون على درجة عالية من الدقة وتمثيل بقية البيانات التي يصعب جمعها؛ تمكننا البيانات الضخمة من تحليل كل البيانات المتوفرة والتعايش مع نسبة الخطأ الموجودة في البيانات، والحصول مع ذلك على نتائج أفضل من الطرق الإحصائية التقليدية. والنقطة الأخيرة المهمة التي تطرق لها الكتاب، وأحببت الإشارة إليها هنا، هي أن خصائص البيانات الضخمة هذه تجعل الاستفادة من الترابط كافيا لبناء نماذج للتوقعات، ولا نحتاج إلى نظرية علمية تفسر هذا الترابط، مما يعارض منهج العلم التجريبي المعتاد، وسوف أفصل في هذه النقطة في المقال القادم بإذن الله. تويتر @AlQurtas