Одиниці вимірювання довжини двійкового коду. Кодування текстових і графічних даних
Це відео від каналу "Шпаргалка інформатики" присвячене одиницям вимірювання інформації та принципам кодування текстових і графічних даних. Біт як одиниця вимірювання інформації Відео починається з пояснення поняття біта як найменшої одиниці вимірювання інформації. Біт може приймати два значення: 0 або 1, що відповідає наявності або відсутності електричного сигналу. Байт як одиниця вимірювання інформації Далі вводиться поняття байта як одиниці вимірювання, що складається з 8 біт. Пояснюється, що один байт може кодувати числа від 0 до 255. Кратні одиниці вимірювання інформації Для вимірювання великих обсягів інформації використовуються кратні одиниці: Кілобайт (Кб): 1 Кб = 1024 байта Мегабайт (Мб): 1 Мб = 1024 Кб Гігабайт (Гб): 1 Гб = 1024 Мб Терабайт (Тб): 1 Тб = 1024 Гб Кодування текстової інформації Пояснюється, що кожен символ тексту (літера, цифра, знак пунктуації) кодується за допомогою певного числа. Для цього використовуються спеціальні таблиці кодування, такі як ASCII та Unicode. ASCII: Історично перша таблиця кодування, що містить 128 символів (англійські літери, цифри, знаки пунктуації). Unicode: Сучасна таблиця кодування, що підтримує символи всіх мов світу. Кодування графічної інформації Розглядається принцип кодування графічної інформації на прикладі растрових зображень. Пояснюється, що кожен піксель зображення кодується за допомогою трьох кольорових компонентів (червоний, зелений, синій - RGB). Кожен компонент кодується одним байтом, що дозволяє отримати 256 рівнів яскравості для кожного кольору. Роздільна здатність зображення Пояснюється поняття роздільної здатності зображення як кількість пікселів по горизонталі та вертикалі. Чим вища роздільна здатність, тим більше пікселів містить зображення і тим детальніше воно виглядає. Обсяг інформації, необхідний для зберігання зображення Розраховується обсяг інформації, необхідний для зберігання зображення, виходячи з його роздільної здатності та глибини кольору.