أصبحت الحاجة إلى قياس المعلومات ماسة عندما أصبحت البشرية تسيطر على أتمتة عملية الحساب. في منتصف القرن الماضي ظهرت العلوم المتعلقة بمعالجة المعلومات ، ثم ظهرت أسس التقسيم الحديث لها إلى أجزاء. في عام 1948 ، تم إعطاء اسم الحد الأدنى من المعلومات ، وهو مقبول الآن في كل مكان.
لقياس كمية معلومات الكمبيوتر ، يتم استخدام وحدات تسمى "بت" و "بايت". البتة هي أصغر وحدة ممكنة يمكن أن تحتوي على معلومات حول قيمتين فقط للمتغير المقاس - "نعم" أو "لا" ، 0 أو 1 ، تشغيل أو إيقاف ، إلخ.
تقوم المعالجات المستخدمة في أجهزة الكمبيوتر بمعالجة البيانات بشكل تسلسلي ، مقسمة إلى قطعة. لكن إدخال كل جزء متتالي فيها يستغرق وقتًا أطول من معالجته ، وبالتالي ، لتسريع العملية ، يتم توفير البيانات في مجموعات من ثماني أجزاء من المعلومات. جزء من هذا الحجم يسمى بايت. هذه الوحدات - بايت - تقيس حجم الملفات وسعة الأقراص الصلبة والبصرية ومحركات الأقراص المحمولة ووسائط التخزين الأخرى. يتم استخدامها أيضًا في الوحدات المشتقة التي تُظهر ، على سبيل المثال ، سرعة نقل البيانات عبر شبكات الكمبيوتر.
في النظام المتري SI المعتمد في معظم البلدان ، يتم تطبيق البادئات القياسية على البايتات ، مما يشير إلى تعددها البالغ ألف وحدة. إذن 1 كيلو بايت يعني 1000 بايت ، 1 ميغا بايت يساوي مليون بايت ، إلخ. يمكن تطبيق نفس البادئات على البتات ، ومن المهم عدم الخلط - 1 كيلو بايت أقل ثماني مرات من 1 كيلو بايت ، وكذلك 1 ميغا بايت أقل بكثير من 1 ميغا بايت.
يرتبط بعض الالتباس بالطبيعة الثنائية للوحدة الدنيا من المعلومات اليوم ، حيث تم تصميم مجموعة البادئات المستخدمة في نظام SI للنظام العشري. لذلك ، على سبيل المثال ، على بطاقة فلاش وفقًا لقواعد نظام SI ، يشار إلى سعة 1 غيغابايت ، ولكنها في الواقع تحتوي على معلومات أقل. لتجنب ذلك ، قدمت اللجنة الكهروتقنية الدولية ، في عام 1999 ، بادئات أخرى للإشارة إلى تعدد البايتات. بدلاً من البادئة "kilo" ، يجب استخدام "kibi" - 1 kibibyte يساوي 2¹⁰ = 1024 بايت. توجد بدائل مماثلة للميغابايت (ميبي بايت) والجيجابايت (جيجابايت) وما إلى ذلك. ومع ذلك ، فإن مثل هذا النظام لتعيين وحدات المعلومات لم يتلق بعد توزيعًا واسع النطاق.