Двійкові одиниці (у теорії інформації), одиниці виміру ентропії і кількості інформації . Ентропію в 1 Д. е. (1 bit, від англ.(англійський) binary digit) має джерело з двома рівноімовірними повідомленнями. Походження терміну пояснюється тим, що кількість Д. е. вказує (з точністю до одиниці) середнє число знаків, необхідне для запису повідомлень даного джерела в двійковому коді . Уживаються також десяткові одиниці (decit, від англ.(англійський) decimal digit). Перехід від одних одиниць до інших відповідає зміні підстави логарифмів у визначенні ентропії і кількості інформації (10 замість 2). Формула переходу: 1 дес.(десятина) ед. = 1/lg 2 Д. е. » 3,32 Д. е.