О квантовой информации

Квантовая информация — технологии и новая область науки, сочетающая в себе разделы физики, математики, инженерии и кибернетики. Ее целью есть выяснение роли основных законов физики, открытых в двадцатом веке, в процессах получения, обработки и передачи информации. Теория хорошей информации не имеет возможности адекватно ответить на вопрос, как информация возможно использована в квантовом мире. Кое-какие выводы теории квантовой информации смогут быть представлены как обобщение хорошей теории в тех случаях, в то время, когда информация передается и хранится посредством квантовых состояний, а не в терминах хороших битов.

Квантовая теория информации устанавливает связь между мерой квантовой запутанности и информацией. Быть может, на фундаментальном уровне нет ничего, не считая квантовой информации, которая в ходе декогеренции проявляется в пространствах меньшей размерности в виде локальных объектов.

Целью квантовой теории информации есть обнаружение неспециализированных правил реализации квантовых квантового компьютера и вычислений. Ответственной задачей есть отыскание новых способов обработки информации и изучение особенностей сцепленных квантовых состояний.

Вычисление — это процесс, на протяжении которого происходит определенное для каждой логической операции (ЛО) нелинейное сотрудничество потоков информации между собой и их преобразование. В зависимости от типа ЛО в некотором роде изменяется состояние логического элемента (ЛЭ), а поступающая на его входы информация или передается потом, или как-то преобразуется. Управление либо преобразование происходит под действием внешних сигналов. Это, к примеру, переключение либо инверсия (0?1, 1?0), запись, сброс. Носитель информации на физическом уровне именуется знаком.

Ни для кого не секрет, что объекты микромира ведут себя совсем необычно с позиций хорошего мира. Так, наблюдение за атомом раздражает его перемещение, одновременно с этим в отсутствие наблюдения, атом как бы размыт по скоростям и пространству (отсутствие траектории, соотношение неопределенности Гейзенберга), как словно бы бы он пребывал в нескольких разных местах в однообразные моменты времени.

Так, до сих пор квантовые эффекты, которые связаны с малостью размеров разных устройств воспринимались как преграда на пути к миниатюризации электронных устройств. Квантовая информатика обязана узнать, как применять основные квантовые особенности.

Один из главных вопросов теории информации содержится в том, какое количество информационного ресурса нужно для исполнения данной задачи? К примеру, сколько шагов нужно сделать для ответа задачи факторизации, т.е. разложения несложных сомножителей числа? Для несложных сомножителей данного 300–значного числа хороший метод требует приблизительно 51024 шагов либо около 150 тыс. лет при скорости вычислений порядка терагерц, а квантовый метод требует 51010 шагов и выполняется меньше секунды при той же скорости.

Б. Шумахер выделяет такие элементы информатики:

1. Выбрать физические ресурсы, к примеру, строчок битов, вправду разглядываемых не абстрактно, а как физическую совокупность.

2. Сформулировать задачу обработки информации, делаемую посредством физического ресурса.

3. Выбрать критерий успешного исполнения задачи.

Итак, основной вопрос теории информации таков: какова минимальная величина физического ресурса для исполнения задачи обработки информации в соответствии с критерием успеха?

В квантовой теории информации эти процедуры покупают своеобразные черты: в качестве физического ресурса тут выступают сцепленные состояния, при обработке информации нужно руководить ими, а критерий успеха менее выяснен и очевиден, чем в хорошем случае.

Одним из приложений квантовой информатики есть криптография. Тут уже созданы и реализованы методы, применяющие такие свойства квантовых объектов, как неклонируемость и невозможность измерения (перехвата сообщения) без возмущения. Главный выигрыш в квантовых криптографических протоколах — кроме того не полная их секретность, в противном случае, что сам факт подслушивания делается известным для пользователей, т.к. любое вторжение в квантовую совокупность с неизбежностью поменяет её состояние, что сходу станет известно субъектам, обменивающихся информацией.

Итак,Неприятность 1 -уменьшение размеров интегральных схем, т.е. отдельных элементов. Естественный предел тут — характерный масштаб атома, в то время, когда начинают действовать законы микромира, т.е. квантовой механики. Неприятность 2- уменьшение доли рассеиваемой энергии. Логически обратимые операции — те, каковые не сопровождаются рассеянием энергии (Ландауер, 1961г.). Универсальный цифровой компьютер типа счётной автомобили Тьюринга возможно выстроен на логически и термодинамически обратимых ЛЭ так, что энергия будет рассеиваться лишь за счет необратимых периферийных процессов (типа ввода информации в машину или ее вывода).

Для исполнения хороших вычислений нужна физическая совокупность, имеющая два устойчивых состояния, к примеру, триггеры — в радиоэлектронике.

Квантовый же компьютер — физическое устройство, делающее логические операции над квантовыми состояниями методом унитарных преобразований, не нарушающих квантовые суперпозиции в ходе вычислений. Схематично, работа квантового компьютера возможно представлена как последовательность трех операций:

1. “ЗАПИСЬ” (приготовление начального состояния),

2. “ВЫЧИСЛЕНИЕ” (унитарные преобразования начальных состояний)

3. “ВЫВОД” результата (измерение, проецирование конечного состояния).

Кроме этого сюда следует отнести запасного операцию “СБРОС”, приводящую регистр к главному состоянию.

Разглядим энтропии и связь информации. Пускай имеется лента, разбитая на ячейки — хороший регистр. В случае если в каждой ячейке возможно помещен лишь один из двух знаков, то говорят, что в ячейке содержится бит информации. Разумеется, что в регистре, содержащем N ячеек содержится N бит информации и в нем возможно записать 2N сообщений. Итак, информационная энтропия измеряется в битах:

О квантовой информации

(2.9)

Тут QN = 2N — полное число разных сообщений. Из (2.9) ясно, что информационная энтропия равна минимальному числу бинарных ячеек, благодаря которым возможно записать некую данные.

Определение (2.9) возможно переписать по-второму. Пускай у нас имеется множество QN разных сообщений. Отыщем возможность того, что нужное нам сообщение совпадет со случайно выбранным из общего количества QN разных сообщений. Она равна, разумеется, PN = 1/QN. Тогда определение (2.9) запишется как:

О квантовой информации

(2.10)

Чем больше число ячеек N, тем меньше возможность PN и тем больше информационная энтропия HB, содержащейся в данном конкретном сообщении.

К примеру, число букв алфавита равняется 32 (без буквы ё), т.е. 25. Дабы каждой букве сопоставить определенную комбинацию бинарных чисел нужно иметь 5 ячеек. Добавив к строчным буквам заглавные, мы удваиваем число знаков, каковые желаем закодировать — их станет 64 = 26 — т.е. добавляется лишний бит информации HB = 6. Тут HB — количество информации, приходящийся на одну букву (строчную либо заглавную). Но таковой прямой подсчет информационной энтропии не совсем точен, потому, что в алфавите имеется буквы, каковые видятся реже либо чаще. Тем буквам, каковые видятся реже, возможно дать б’ольшее количество ячеек, а на довольно часто видящихся буквах — сэкономить и дать им те состояния регистра, каковые занимают меньшее количество ячеек. Правильное определение информационной энтропии было дано Шенноном:

О квантовой информации

(2.11)

Для рассмотренного примера суммирование ведется по всем знакам (буквам алфавита), а pi свидетельствует возможность появления знака с номером i. Как видно, это выражение охватывает как довольно часто применяемые буквы, так и буквы, возможность появления которых в данном сообщении мелка.

Потому, что в выражении (2.11) употребляется натуральный логарифм, соответствующую единицу информации именуют “нат”.

Информационная энтропия — это мера недочёта (либо степень неопределенности) информации о настоящем состоянии физической совокупности.

Информационная энтропия Шеннона:

О квантовой информации

,

где

О квантовой информации

Это относится к двухуровневым совокупностям, типа бит: “0” и “1”. В случае если размерность равна n, то H = lognDG.

Так, для n = 3, Н = log3DG, причем, DG = 3.

Количество информации I (либо легко информация) о состоянии хорошей совокупности, приобретаемое в следствии измерений внешним прибором, связанным с разглядываемой совокупностью некоторым каналом связи, определяется как разность информационной энтропии, соответствующей начальной неопределенности состояния совокупности H0, и информационной энтропии конечного состояния совокупности по окончании измерения H. Так,

I + H = H0 = const.

В совершенном случае, в то время, когда отсутствуют помехи и шумы, создаваемые внешними источниками в канале связи, конечное распределение возможностей по окончании измерения сводится к одному определенному значению pn = 1, т.е. H = 0, а большое значение взятой при измерении информации будет определяться : Imax = H0. Так, информационная энтропия Шеннона совокупности имеет суть большой информации, заключенной в совокупности; она возможно выяснена в совершенных условиях измерения состояния совокупности в отсутствие помех и шумов, в то время, когда энтропия конечного состояния равна нулю, H = 0.

Разглядим хороший логический элемент, что может пребывать в одном из двух равновероятных логических состояний “0” и “1”. Переход элемента в одно из состояний, к примеру, в состояние “0”, соответствует уменьшению статистического веса его состояния если сравнивать с начальным состоянием в 2 раза (для трехуровневых совокупностей — в 3 раза). Отыщем уменьшение информационной энтропии Шеннона, которое соответствует повышению количества информации об элементе на один бит:

Следовательно, информационная энтропия определяет число битов, которое требуется для кодирования информации в разглядываемой совокупности либо сообщении.

При обобщении энтропии Шеннона на квантовый случай (энтропию фон Неймана) нужно выяснить оператор энтропии через оператор плотности

О квантовой информации

:

S= — ln

О квантовой информации

Тогда, разумеется, физическая величина “энтропия” либо S имеется среднее значение этого оператора либо правильно вычисления средних размеров в квантовой механике:

S= —

О квантовой информации

ln

О квантовой информации
О квантовой информации

= — Sp(

О квантовой информации

ln

О квантовой информации

)

Для рассмотрения процедуры вычисления логарифма оператора (недиагональные элементы матрицы плотности — по большому счету смогут быть комплексными размерами, для которых логарифм не выяснен) разглядим две ситуации.

1. Чистое состояние. В этом случае вероятно описание квантовой совокупности посредством волновой функции в базовом представлении (т.е. как когерентную суперпозицию базовых состояний какого-нибудь оператора):

О квантовой информации

.

В этом случае, само собой разумеется, матрица плотности недиагональна. Наличие недиагональных элементов в базовом представлении именно и отражает факт когерентности суперпозиции базовых состояний. По большому счету же матрица плотности любой физической совокупности должна быть положительно выяснена, т.е. все ее личные значения должны лежать в промежутке [0,1]. Из линейной алгебры как мы знаем, что для любой эрмитовой матрицы А существует такая невырожденная матрица Т, что матрица

О квантовой информации

есть диагональной. Диагональные элементы матрицы

О квантовой информации

в этом случае настоящие и являются собственными значениями матрицы А. Более того, существует такая невырожденная матрица Т, что диагональные элементы

О квантовой информации

— принимают лишь значения +1, -1 и/либо 0.

Физически, матричное унитарное преобразование

О квантовой информации

свидетельствует смену представления либо базиса. Так, чистое состояние совокупности неизменно возможно представлено в виде собственного состояния какого-нибудь оператора. К примеру, разглядим когерентную суперпозицию двух состояний либо кубит:

О квантовой информации

Пускай

О квантовой информации

. Полным аналогом для того чтобы состояния есть состояние поляризации света, в то время, когда поляризация образовывает угол 450 с вертикалью. Вправду, измерения поляризации отдельных фотонов в этом состоянии будут давать или горизонтальную, или вертикальную поляризации с возможностью 1/2. Одновременно с этим измерения, проводимые в базисе +450,постоянно будут давать точный итог.

Эти рассуждения возможно обобщить на случай произвольной (эллиптической) поляризации, в то время, когда в разложении волновой функции хороши от нуля два комплексных коэффициента.

Энтропия фон Неймана, определяемая через матрицу плотности, инвариантна относительно выбора базиса либо представления, т.е., переходя к диагональному представлению,

О квантовой информации

. (2.12)

Но в чистом состоянии только один элемент матрицы плотности отличен от нуля, т.е.

О квантовой информации

, соответственно S = 0. Равенство нулю энтропии интерпретируется как минимальная неопределенность (хаотичность).

2. Смешанное состояние. Разглядим однородную смесь состояний:

О квантовой информации

где, как в большинстве случаев, какое количество — число состояний с данной энергией, т.е. микроканонический ансамбль Гиббса.

В смешанном состоянии недиагональные элементы матрицы плотности равны нулю — матрица имеет диагональный вид с диагональными элементами

О квантовой информации

. Матрицу плотности смешанного состояния неизменно возможно привести к диагональному виду, но по диагонали будут находиться хорошие возможности p1……pn.

Квантовая информация. Яковлев В.П. Лекция (1/2)

Похожие статьи:

Понравилась статья? Поделиться с друзьями:
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!:

Adblock
detector