Ресурсы: техническое описание TLS, LaTeX - в картинки (img), криптографическая библиотека Arduino, шифр "Кузнечик" на ассемблере AMD64/AVX и ARM64
Открытый серверный ключ TLS, который указан в TLS-сертификате, на dxdt.blog начинается с подстроки DEADC0DE (в шестнадцатеричной записи, см. скриншот ниже).

Да, тут присутствует ещё и байт со значением 04 в самом начале, но он не имеет отношения непосредственно к ключу – это лишь указание на формат представления. 04 обозначает несжатую форму записи, когда прямо указываются две координаты точки ключа. Поэтому 04 можно отбросить. Такое значение ключа я использовал специально (это то, что называется vanity keys).
Как это значение получено? Оно получено перебором, конечно. Это не очень сложно сделать. Открытый ключ ECDSA – это точка на кривой. Точке соответствуют две координаты, одна из них (обычно, обозначают X), записывается слева. Поэтому в начале записи ключа будут идти старшие байты X-координаты. Остаётся подобрать такой секретный ключ, который даст открытый с нужной X-координатой. Секретный ключ – это натуральное число, больше двух и меньше порядка группы точек кривой (обычно, меньше тоже на два, но это детали). Нужно перебирать секретные ключи и проверять значение начальных байтов X-координаты открытого на соответствие заданной маске.
Открытый ключ – это точка-генератор G из параметров кривой, умноженная на значение секретного ключа d: [d]G. Я, используя готовую библиотеку из дистрибутива языка Go, написал быструю программу умножения на P-256 (кривая, которая используется здесь в ECDSA). Программа перебирает секретные ключи и делает это параллельно, во много потоков. Соответственно, даже на старом 16-потоковом процессоре AMD Ryzen 7, подбор ключа занял всего несколько часов. В результате подбора я получил нужный секретный ключ, который экспортировал для генерирования CSR (запрос на выпуск сертификата) и штатным способом использую при заказе TLS-сертификатов.
Вообще, для P-256 можно придумать немало открытых ключей, запись которых, в X-координате, выглядит ещё более необычно. Например:
0xAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAABBBBBBBBA - цифры A и немного B, 0x1000000000000000000000000000000000000000000000000000000000000001 - единицы и нули, 0x5000000000000000000000000000000000000000000000000000000000055555 - пятёрки и нули, 0x7777777777777777777777777777777177777777777777777777777777777777 - семёрки с "неожиданной" единицей, 0x8888888888888888888888888888881888888888888888888888888888888888 - восьмёрки, но тоже с единицей.
Точки с такими X-координатами лежат на кривой P-256. Определить для них Y-координату – не представляет вычислительной проблемы. Более того, ввиду свойств данной кривой – все эти точки, действительно, являются открытыми ключами. Тут есть лишь одна проблема: по открытому ключу очень сложно, а на практике – невозможно, вычислить секретный ключ; потому что это и есть основная задача, обеспечивающая стойкость ECDSA. Конечно, подходящий секретный ключ можно угадать. В том числе, в результате перебора. Вот только перебрать даже половину от, примерно, 2^256 – нереально. Ну и записать подходящий секретный ключ просто по наитию, как поступил бы борелевский шаман, пока что тоже не вышло. Так что придётся, до поры до времени, обойтись без забавных записей, ограничившись hexspeak-вариантом с DEADC0DE. Но как только и если появится квантовый компьютер подходящей разрядности, тогда можно будет секретные ключи подобрать очень быстро.
Комментарии (2) »
У меня есть очень старый аккаунт Google Apps “для домена” – ещё со времён бета-тестирования, бесплатный (каким-то чудом). Вот я настраивал там TOTP, поскольку Google перестал пускать без “второго фактора” (очередной маркетинговый трюк), и обнаружил, что в панели администратора теперь есть специальный раздел “Углеродный след” (Carbon Footprint for Google Workspace). Кто бы мог подумать.
Комментировать »
В копилку примеров реального использования ИИ/LLM.
Попробовал тут выяснить, можно ли через ChatGPT узнать о группах для протокола FFDH (“мультипликативного” Диффи-Хеллмана, DH), используемых в TLS 1.3. Довольно специальный вопрос. Но зато вполне конкретный. Удивительно, но ChatGPT 5.2 тут же верно сообщило и номер RFC, где описаны эти группы, – RFC 7919, – и о том, что группы строго зафиксированы, что их всего пять. Это всё верно. Но, как обычно в таких делах, не будем торопиться с выводами.
То есть, подразумеваем, что ChatGPT тут использует человек, хорошо знакомый с математической частью, но который хочет узнать технические детали DH конкретно в TLS 1.3. Первая выдача ChatGPT, пусть и содержала какие-то домыслы про HSM и пр., но оказалась бы в таком сценарии полезной: номер RFC, информация о том, что используется зафиксированный набор групп, в общем – по теме и неплохо. В этом-то и кроется ловушка, как будет видно далее: данная система легко, с первого шага, производит впечатление “информированной”, но таковой не является.
Следующим запросом я попробовал выяснить значение конкретного модуля конкретной группы (основной параметр, задающий группу для FFDH, – простое число, называемое модулем). Опять же, удивительно, но ChatGPT даже смогло “понять” и корректно обработать опечатку в моём запросе: я пропустил одну цифру, написав ffdhe372 вместо ffdhe3072.
“В TLS нет группы под названием ffdhe372” – верно сообщило ChatGPT (здесь и далее я перевожу с исходного английского). “Вы наверняка имели в виду ffdhe3072 (RFC 7919, Group 15)” – уточнило ChatGPT. Что это за “Group 15” – непонятно, но, ладно, в остальном – очень верно. Именно ffdhe3072 и имелась в виду. Опять же, выглядит, как ответ очень “информированной” системы. Не то чтобы исправление подобных опечаток с использованием статистики корпуса текстов представляло какую-то техническую трудность, но, тем не менее, создаёт впечатление “подлинности”.
Ещё более удивительно, но ChatGPT распечатало абсолютно верное значение модуля – цифра к цифре. Это, конечно, улучшение, если сравнивать с тем, что было пару лет назад. Но дело тут не в данном улучшении, как вы, думаю, уже догадались: ChatGPT и сейчас легко генерирует несуществующие цитаты – я недавно сталкивался с тем, например, что оно сгенерировало ложную цитату “из труда Бомбелли”. Опять же – очевидно, что внутри ChatGPT нет никакой точной “базы знаний”, откуда оно могло бы извлекать подобную информацию универсальным образом – значение модуля, в данном случае. Но если смотреть узко, то складывается впечатление, что такая база там есть, что ChatGPT сходило в сохранённый текст RFC и скопировало оттуда значение модуля.
Нет. Всё не так, несмотря на непрерывное маркетинговое давление.
Дальше я спросил, как доказывается, что это – простое число. (Модуль должен быть простым числом, это базовое требование.) И тут ChatGPT кинулось в рассказы о тестах на простоту, о “доказуемо простых” числах и т.д., заявив, что использовался “алгоритм Маурера” (Maurer) и написав тому подобные техничные слова. Проблема в том, что это всё общие методы, не имеющие отношения к конкретному RFC и к конкретному модулю.
То есть, ChatGPT заявило, что простые модули в RFC 7919 выбирались методом Маурера (или по алгоритму, это не важно), начиная с некоторого небольшого известного простого. Это совсем не верно, но звучит очень похоже на правду, если только вы уже не знаете технических деталей. Такой вот ловкий обман. Естественно, тут же ChatGPT добавило показательный, по своему ложному положению, текст: “если бы в TLS использовались простые числа, похожие на случайные, но без доказательств, то злонамеренная сторона-генератор могла бы встроить бэкдор”. Этот фрагмент дословно верный, но только если его рассматривать вне контекста обсуждения и исходного запроса. А если в контексте, то под “доказательствами” тут имеются в виду “сертификаты” (“свидетели”) простоты числа, и это не имеет отношения к методу “защиты от бэкдоров”, который должен быть направлен на исключение возможности получения числа специального вида – доказательства тут должны доказывать то, что алгоритм не позволяет выбрать произвольное простое число, а числа там всегда простые. (Да, математически, наличие “сертификатов”, доказывающих простоту, – вычислительно ограничивает возможности по свободной генерации простых, но тут речь точно не об этом, да и ограничения там не являются блокирующими.)
Итак, следующий мой вопрос был о том, как же именно был получен модуль ffdhe3072.
Метод вычисления всех модулей из RFC 7919 описан в самом этом RFC. Буквально. Я как-то даже писал об этом подробно. В основе вычисления – запись числа e. В этом весь смысл: числа взяты “из записи” e, а не придуманы “с бэкдорами”. Схема называется NUMS – Nothing Up My Sleeve (“ничего в моём рукаве”).
То есть, если бы в ChatGPT был интеллект, – пусть и искусственный, – то этот “интеллект” взял бы RFC и прочитал. Тем более, что так хорошо всё начиналось. Но нет. ChatGPT стало продолжать в красках расписывать, что модули для RFC 7919 были получены по “детерминированному алгоритму Маурера”, прямо приводя фальшивый способ получения исходной константы: seed = SHA-256(“TLS FFDHE 3072”). Да. Настолько детально. И так далее, и тому подобное. Никакого отношения к RFC и к оригинальному источнику значений модулей – в этом не было (в RFC, ещё раз, написана конкретная формула, но она вообще не имеет отношения к “Мауреру”).
Это очередной пример большой проблемы: данные системы AI/LLM генерируют огромное количество текста с глубокими фактическими ошибками; на это тратится много энергии в дата-центрах; результат – затапливает; результат – уже встраивают не только в программный код реально используемых систем, но и в те же RFC. Если вы не специалист, который уже в деталях знает то, что пытается “выяснить” через LLM, то шанс обнаружить дефект и подмену минимальными усилиями – совсем не велик: требуется потратить много сил и времени.
P.S. А число, полученное как SHA-256(“TLS FFDHE 3072”), – составное: 0xd73d45623a7a52d11ea654956e701554a137fafd3545d46379891d7c4c79f545 = 3^2 * 7 * 3719447821 * 27939151181 * 3616471485699239 * 4111907187916820252669152053322571860357.
Комментарии (5) »
На сайте Nature опубликовали (нужна регистрация) очередную статью, в которой к текущему состоянию ИИ/LLM прямо подводят “определение” универсального интеллекта (AGI – как теперь модно обозначать), чтобы, опять же, текущие системы, типа GPT, стали этим самым универсальным ителлектом, но по скорректированному определению.
В общем-то, всё обычно: сперва постулируют, что, мол, LLM-системы уже “демонстрируют уровень золотой медали на математических олимпиадах” (игнорируя все фокусы с перебором и маркетингом) и “LLM решают новые, ранее не опубликованные, математические задачи” (а что означает – ранее не опубликованные?), а потом подгоняют определение интеллекта под эти, – весьма спорные, – заявления, делая вывод, что “ещё пять лет назад у нас не было AGI, а теперь есть”. Да, так и сформулировано. (Кстати, о том, что достижение “суперинтеллекта” будет определяться через сообщения в ведущих газетах, я уже писал раньше.)
В статье на страницах Nature есть занятный момент и про калькулятор. Буквально, цитата:
“Люди – основные примеры универсального интеллекта; но его нет у карманного калькулятора, несмотря на сверхчеловеческие возможности в вычислениях”.
Якобы карманный калькулятор обладает сверхчеловеческими возможностями в вычислениях. Но калькулятор ничего не считает – он всего лишь переключает сегменты на индикаторе, в соответствии с нажатием на кнопки. Числа, процесс счёта – это всё образуется в представлении тех самых людей, которые объявлены носителями интеллекта. Собственно, это очень хорошая иллюстрация того, что же именно происходит: как калькулятор начинает вдруг “считать”, получая, автоматически, “сверхчеловеческую способность”, так вот и LLM-системам вдруг приписывают интеллект по удобному определению, начиная утверждать, что они “решают задачи” и “владеют языками”.
Комментировать »
Кстати, о языках программирования из моей практики. В прошлом, 2025, году, как обычно, я довольно много использовал Go. Наверное, этот язык – на первом месте у меня, “по распространённости”.
Необычно много, – ну, по моим меркам и нынешним временам, – было C/C++. Но, в основном, это микроконтроллеры PIC и AVR. Хотя, одна старая утилита для x86, написанная на C, тоже попалась.
Заметный объём JavaScript – тут нечего добавить. Shell-скрипты – да, регулярно нужен Bash.
Как обычно, регулярно использовал Python, но, так сказать, ситуативно – лишь потому, что это входной язык Sage, системы компьютерной алгебры.
А вот ассемблеров за прошлый год попадалось меньше, чем обычно. И, опять же, почти всегда – для микроконтроллеров.
Ещё написал за прошлый год несколько сиюминутных Perl-скриптов для обработки данных, но там-то, всего, может, три сотни строк в сумме.
И иногда попадался Rust. Ну, как попадался: иногда приходится читать код, а кроме того, например, написал я на Rust микроскопический пример для статьи про сложение точек эллиптической кривой на “Хабр”.
Разнообразие, получается, не слишком велико.
Комментировать »
Идея очевидным образом обозначать текст, сгенерированный LLM/ИИ, – здравая. Потому что – куда деваться? Если автор той или иной публикации обозначает, что, мол, весь текст, сгенерированный той или иной LLM/ИИ, обозначен отступом и отметкой на полях, то это похвально. Не менее похвально, если те слова выдачи LLM, в которые вмешался автор, тоже выделены.
Есть только один хитрый момент: хорошо бы не менее заметным способом обозначать, что использовалась программа-синонимайзер, генерирующая текст, а провайдер программы – компания “Имярек”. Потому что так будет точнее. Не “ИИ-агент”, не “сверхразумная GPT”, а синонимайзер. Естественно, различные компании “Имяреки”, производящие “хайп”, как главный свой продукт, постоянно выводят используемые обозначения в сторону “интеллекта”, пусть даже “искусственного”. Отсюда, вместо точного указания на то, что автор публикации разместил в ней результат работы синонимайзера, теперь нередко пишут, что “идея данной статьи принадлежит LLM такой-то”, программный код реализовала “LLM такая-то”. Это вот сильно сбивает читателей с толку.
Комментировать »
На гистограмме ниже показано количество опубликованных на dxdt.ru записок по годам, с 2006 года, когда начинается архив WordPress на сайте (собственно, это статистика по данным из панели управления WordPress).

Что тут видно? Вот, видно, что рекордный год – 2008 (аж 480 записок опубликовано, более одной в сутки, в среднем; я даже сам сейчас удивляюсь такому количеству); но зато в 2009 уже очень резкое падение, которое, как я думаю, связано с тем, что в 2009 уже были заметно другие времена, по сравнению с 2008, когда всё ещё сохранялись “старые времена”, да и публиковать я на dxdt.ru в 2009 стал только что-то совсем “дельное”, с какими-то подробностями. Кстати, есть немало записок, уже связанных с историей Сети: например, вот из 2009 года про запуск DNS-резолвера Google. Поскольку с Интернетом я столкнулся сильно раньше 2006 года (лет на 15-16 раньше – ещё и веба-то не было), то, конечно, немного жаль, что записок с тех старых времён тут нету. Ну да ладно. (Разные авторские сайты, с регулярными публикациями, я вёл тоже задолго до dxdt.ru, даже выигрывал конкурсы – но это другая история, а dxdt.ru пока что остался самым долгоиграющим, несмотря на всякие глобальные изменения.)
Совсем мало записок на dxdt.ru выходило в период с 2017 по 2021 год, буквально – едва набирается по паре в месяц (да, я в эти годы продолжал что-то писать в Facebook – не уверен, что это было хорошей идеей). Но вот уже в 2023 году – резкий рост (вполне возможно, что сыграл эффект “минус Facebook”, но не только это). И пока что сохраняется темп с заметным количеством записок ежегодно.
Продолжаем наблюдение.
Комментарии (1) »
Кстати, попался тут неплохой пример странностей современного “Хабра”, связанных с ИИ/LLM – статья под названием “Царский путь к пониманию комплексных чисел” (не ясно, есть ли тут аллюзия на известную максиму про отсутствие “царских путей” в математике). Текст, судя по всему, – а также, судя по комментариям автора статьи, – сгенерирован при помощи нескольких LLM, но потом поправлен и скомпилирован автором. (Такое сейчас прямо поощряется.) Теми же LLM сгенерированы картинки-иллюстрации в статье.
В статье полностью сохранена характерная для LLM-генераторов подача в стиле “успешный успех”. А “успешный успех” начисто скрывает за ложным пафосом минимальную содержательную часть, если она там и есть – читать это, к сожалению, очень и очень трудно, полезный выход минимален: “Рождение ереси”, “Приглашение к бунту”, “Понимание – не равно – умение решать” и т.д., думаю, заштампованность ясна без дальнейшего перевода.
На схемах к статье утверждается, например, что принятие “догмы”, которая там названа (цитата) “Корней из отрицательных чисел не существует”, приводит к потере “Квантовой механики и теории поля”, а также “Волн и колебаний в физике”. Каким таким образом это возможно? Нет объяснения. При этом, очевидно, что над действительными числами “корней из отрицательных чисел” не существует по определению, что бы там ни рисовали LLM на картинках. (Имеются в виду квадратные корни.) Именно на этом “несуществовании” и вводятся комплексные числа в математике, а не на признании самого “несуществования” “догмой” с последующим отрицанием, то есть, совсем не так, как написано у LLM. Собственно, это неверная трактовка, эквивалентная истории с параллельными прямыми, которые “пересекаются” – то есть, создание фиктивной восторженности, путём полного искажения определений, проводимого через ложное противоречие. И, как говорится, так далее, и тому подобное.
Так что, влияние LLM – очень и очень не хорошее.
Комментировать »
Аккаунт на “Хабре” у меня с 2009 года. Однако до 2025 года я этим аккаунтом, фактически, не пользовался и ничего не публиковал (за исключением пары коротких комментариев, да и те – в 2020 и 2023 годах). В 2025 году, поскольку я постоянно вижу и слышу, как на “Хабр” ссылаются не только студенты профильных специальностей, но и даже коллеги, давно работающие в области ИТ, я решил попробовать посмотреть на этот ресурс с практической точки зрения. И вот в 2025 году я опубликовал там 18 статей (должно бы быть 19, но, видимо, не в этот раз), 11 “постов” (другой формат), три новости (третий формат) и около 110 комментариев (ну, на странице профиля сейчас написано, что 110, однако это количество незначительно меняется даже тогда, когда я новых комментариев не пишу: причина мне не ясна, возможно, какие-то статьи, где есть мой комментарий, снимают с публикации). В общем, теперь нельзя сказать, что я не изучил использование “Хабра” на практике, поэтому поделюсь впечатлениями.
1.
Я написал статьи по разным темам, но смысл написания статей на “Хабр” так и остался для меня тёмен: какого-то заметного трафика на эти статьи не приходит; видимо, они не интересны для аудитории (что, впрочем, не стало для меня сюрпризом).
Поскольку я постоянно сталкиваюсь с упоминаниями “Хабра” (см. выше), ресурс этот, всё же, популярный. Однако тематика, получается, с моими представлениями и моими текстами пересекается крайне мало (что, впрочем, тоже не удивительно). Кстати, счётчики просмотров на “Хабре” довольно странные: показатели в статье и на странице внутренней статистики существенно отличаются (про это там внутри прямо написано, на специальном баннере, а различные показатели объясняют тем, что “разные методы”, что бы это ни значило). Счётчик в самой статье, как я понял, нужно делить примерно на 10, чтобы получить количество прочтений.
2.
Складывается впечатление, что основной объём контента сейчас там дают три пересекающихся направления: “переводы”, “корпоративные блоги” и “ИИ – силами и при помощи”. “Переводы” – это переводы англоязычных (в подавляющем большинстве случаев) статей из разных “иностранных” источников, и так доступных в Сети. Для меня – это странно. Наверное, такое явление полезно. Однако, почему не читать первоисточник – лично мне не очень понятно. Скорее всего, ИТ-аудитории “Хабра” на русском читать сильно проще; однако, не забывайте, это создаёт вторичность и подчёркивает вторичность, а в переводах встречаются ошибки, иногда – весьма досадные.
В “корпоративных блогах”, как ни странно, попадаются весьма и весьма хорошие статьи. Попадаются. Но редко. К сожалению, чаще это что-то типовое, – и ещё более “вторичное”, чем переводы, – из разряда “как мы настроили мониторинг” (всегда интересно почитать, как настроен мониторинг мониторинга, но о таком пишут очень редко). Понятно, что такие “интеграции”, как корпоративные блоги, просто необходимы “Хабру”. Поэтому, тут-то как раз упрекнуть этот ресурс не в чем.
А вот явление “ИИ” – заслуживает отдельного обсуждения, см. следующий пункт.
3.
Существенная часть контента современного “Хабра” – это сгенерированные ИИ/LLM тексты и картинки. Либо сгенерированные непосредственно LLM, либо сгенерированные при помощи LLM.
Естественно, это всё видит аудитория – и тексты, и, тем более, картинки – легко узнаются. Иногда авторы статей прямо пишут, что использовали при написании ИИ. Такое раскрытие информации – похвально. Непонятен только сам смысл использования ИИ. Вообще, смысловое качество результатов LLM-генерации – ну, как говорится, оно ожидаемо низкое. А вот место и время – расходует на высоком уровне.
Но, среди ИИ-эффектов, не это самое неприятное: самое неприятное – что ресурс буквально залит сопутствующими статьями и новостями “про и вокруг ИИ” (“новая LLM”, “101% кода уже пишет ИИ”, “сотрудник компании по продвижению ИИ-хайпа сказал, что они продвигают ИИ при помощи ИИ через ИИ” и т.д.). Публикации как бы сделаны под копирку, но затапливают ленту.
Да, проблема эта массовая, общая: с появлением доступных генераторов связного текста – затапливать начало практически весь веб, и не только веб. Но в чём смысл продираться через это на ИТ-ресурсе? Вопрос риторический. Что делать – не понятно, но продираться надоело.
4.
На “Хабре” более или менее понятный текстовый редактор для размещения статей. Но не очень понятно, как нужно выбирать “тип аудитории” (что бы это ни значило) и ключевые слова. С хабами – вроде, понятно.
Но при всём при этом, к большому сожалению, возможностью логина на сайт (по ИТ-тематике!) теперь прямо управляет “Яндекс”. Я как-то написал, что на “Хабре” попадаются забавные капчи. И вот, по какому-то совпадению, практически сразу же, на “Хабре” те капчи поменяли – заменили на сервис от “Яндекса”. Теперь без подтверждения из “Яндекса” залогиниться нельзя вообще. Никак. Не очень хорошо, на мой взгляд. Тем более, что на “Хабре” загружаются скрипты с рекламой от “Яндекса”.
5.
Отдельно меня разочаровало то, что на “Хабре” теперь начали непосредственно в код разметки пользовательской статьи подмешивать рекламу ИИ-агентов от того же “Яндекса”.
Вот. В целом – ничего особенного. Посмотрим, как станет дальше.
Комментарии (3) »
Я в ноябре выступил с небольшим докладом на Пиринговом форуме. Кроме прочего, в докладе показал и неравенство треугольника для Anycast (см. ниже фото, из официальных).
Вообще, неравенство треугольника здесь – это очень полезная иллюстрация, которая показывает, что только из конкретных BGP-таблиц какие-то данные о реальной связности получить нельзя, а содержательные показатели образуются тогда, когда мы начинаем “склеивать” сведения из разных BGP-таблиц (то, что называется View). Другими словами: именно на пересечении, на склейках, и образуется модель Интернета, как схемы, существующей между IP-сетями.
Комментировать »
“Envelopes at sixpence a packet. Particular man in his stationery.”
Arthur Conan Doyle
The Sign of the Four
(Это дополненная версия статьи, которую я ранее опубликовал на “Хабре”.)
Исторический анекдот гласит, что в тридцатых годах прошлого века в Великобритании наблюдалась сезонная нехватка шиллингов в обращении. Почему? Потому что много монет находились внутри газовых счётчиков и счётчиков электроэнергии. Такие счётчики были в ходу ещё и в шестидесятых годах. Если вы смотрели старые британские фильмы, то там нередко показаны ситуации, когда для того, чтобы включилось электричество в квартире или домашнее отопление, нужно опустить монетку-шиллинг в специальный счётчик, установленный тут же. Получив монетку, счётчик включает газ или электричество на какое-то время. Собранные монеты из счётчика периодически забирал специальный сотрудник компании-поставщика энергии. Зимой, естественно, и электричество, и тепло востребованы больше, поэтому больше монет оседало внутри счётчиков.
Шиллинги регулярно задействует Шерлок Холмс в классической советской серии телефильмов: два шиллинга за информацию о лодке, 56 шиллингов за возможность просмотреть вчерашнюю порцию бумажного мусора в нескольких гостиницах. Шиллинг сюда, шиллинг – туда. Собрался целый фунт, даже больше. Но монеты в один фунт не было. Да, был соверен – 20 шиллингов, что соответствует одному фунту по количеству, но, тем не менее, это соверен, а не фунт. В современной Великобритании, несмотря на Шерлока Холмса, шиллинги не ходят. Они довольно давно исключены из оборота. Куда же исчез шиллинг? Оказывается, он превратился в пять пенсов.
Комментировать »

Новый