Цитирую Вас: ""однобитовое представление"- это что за зверь? Черно-белое? Хорошее-плохое? Ну так тут все равно минимум 2 бита надо: хорошо - 1, плохо - 0"
А теперь поясните мне, как это, понимая что такое бит, можно путать бит с его значением. И полагать, что 0 и 1 - это уже "два бита", а вовсе не 2 возможных значения 1 бита?
Так что, вынужден фиксировать - про знание "что такое бит" вы меня пытаетесь обмануть.
>Я воспринял это слово в обычном житейском, а не в программерском смысле
>Тем более тут немало людей постарше и поопытнее вас (я, в частности :-) ).
Ага. Я предположу, что в "житейском смысле" - поопытнее. Только вот, "житейское знание" я за знание не считаю. Обоснованно. Поэтому - за ликбез вам бы поблагодарить (не преподавателя, но вынужденного выполнять его работу для вас), а вы с отмазками да наездами-упреками. Нехорошо! :)