Дано: символ "a", ему соответствует код DOS= 97
Этот код переводится в двоичный байт заданной размерности
(скажем, n=10): 97<=> 0001100001, затем он преобразуется
0001100001
1011101011
__________
1010001010
Так получается, что время такого преобразования зависит от размерности байта странным образом, а именно: при увеличении размерности байта(n=11,n=12,n=13 и т.д), время его преобразования остаётся неизменным ("скачет" в пруделах ошибки):
n=8 t=5.38
n=9 t=4.50
n=10 t=4.61
n=11 t=4.83
n=12 t=4.50
n=13 t=4.67
n=14 t=4.50
n=15 t=4.45
n=16 t=4.56
(По всем алгоритмическим законам, оно должно возрастать экспоненциально)
Прошу указать возможные причины такого выполнения алгоритма(программа работает корректно),если вопрос поставлен некорректно, приношу извинения.
Этот код переводится в двоичный байт заданной размерности
(скажем, n=10): 97<=> 0001100001, затем он преобразуется
0001100001
1011101011
__________
1010001010
Так получается, что время такого преобразования зависит от размерности байта странным образом, а именно: при увеличении размерности байта(n=11,n=12,n=13 и т.д), время его преобразования остаётся неизменным ("скачет" в пруделах ошибки):
n=8 t=5.38
n=9 t=4.50
n=10 t=4.61
n=11 t=4.83
n=12 t=4.50
n=13 t=4.67
n=14 t=4.50
n=15 t=4.45
n=16 t=4.56
(По всем алгоритмическим законам, оно должно возрастать экспоненциально)
Прошу указать возможные причины такого выполнения алгоритма(программа работает корректно),если вопрос поставлен некорректно, приношу извинения.