Преобразование частоты в код — это измерение частоты, усредненной на некотором интервале времени с заданной высокой точностью. Измерение частоты осуществляется частотомером.
Проблема высокоточного измерения частоты достаточно важна, методы ее решения и аппаратура чрезвычайно развиты.
Одна из причин этого состоит в том, что простыми методами можно измерить частоту с высокой степенью точности. Поэтому возможность преобразования какой-либо физической величины в частоту автоматически создаст возможность высокоточного измерения этой физической величины, поскольку погрешности измерения напряжений, токов и резисторов существенно больше погрешности измерения частоты (при соизмеримой степени сложности соответствующей аппаратуры).
Действительно, генераторы с использованием, например, кварцевых резонаторов для большей стабильности частоты позволяют формировать сигналы, частота которых характеризуется погрешностью менее 0,0001%, а в ряде специальных схем (с температурной стабилизацией кварца и другими дополнительными мерами) погрешность может быть снижена до единиц девятого знака.
Соизмерение какой-либо внешней частоты с эталонной может быть осуществлено с погрешностью, пренебрежимо малой в сравнении с погрешностью формирования эталонной частоты. Поэтому можно утверждать, что измерения частот с погрешностью порядка единиц девятого знака не представляет большой технической проблемы при условии, что время усреднения достаточно для получения такой точности.
Точность формирования фронта импульса в простейших схемах на основе современной элементной базы легко может быть обеспечена на уровне 1 нс. Следовательно, длительность интервала около 1 с и более может быть сформирована также с по1решностью на уровне единиц девятого знака. Имеются разработки, в которых почетность определения фронта импульса снижена до 0,1 нс.
В частотомерах без специальных мер, в которых измерение частоты происходит путем подсчета количества импульсов в единицу времени (без определения времени фронта и среза импульсов), погрешность измерения частоты составляет величину, обратную времени усреднения. То есть при измерении за интервал в 1 с погрешность составит 1 Гц, за 100 с она будет 0,01 Гц, а за 0,1 с будет равна 10 Гц, и т. д. Специальные методы позволяют снизить этот порог в 1000 раз и более.