2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




На страницу Пред.  1, 2, 3
 
 
Сообщение29.04.2006, 11:44 
Аватара пользователя
Варяг писал(а):
Ни в одном эксперименте не измерены ни масса, ни размер фотона, а они, якобы, существуют, и все охотно верят! Хотя простейший расчёт, исходя из времени излучения атомом т.н. фотона, показывает, что "фотон" - миф.
Дабы не быть голословным: время, в течение которого атомом излучается фотон, составляет 10^-7 сек, следовательно, при скорости света 3*10^8 м/сек расстояние от "головы" до "хвоста" т.н. фотона составляет 30 метров! Фотон, который в окно не пролезает!

Модераторы, простите за оффтоп, но я не могу тут смолчать.
Варяг, не говорите таких глупостей и цифр о фотонах, если не знаете, к чему и где лепятся цифры, которые Вы приводите. И, пожалуйста, дабы не разжигать тут флейм и не плодить оффтоп, не отвечайте мне на это в данной теме.

 
 
 
 
Сообщение29.04.2006, 12:54 
Аватара пользователя
Варяг
Цитата:
Т.е. Вы не знаете как настраивается т.н. "словарь", и повторяете чужие слова,

Что за бред. Я чё то не понимаю.
Помоему я внятно написал, что пользуюсь более предпочтительной программой для кодирования. Но такие же результаты, по сокращению объема, можете получить и Вы на Вашей, если оторвете своё самомнение от кресла и посмотрите на чужой опыт.
Пора бы уже знать, что DEE это Document Express Enterprise, а не Document Express Editor, которым Вы пользуетесь :evil:.

 
 
 
 
Сообщение29.04.2006, 13:10 
Judge_AK писал(а):
Папка profiles -> documenttodjvu.conf
Находим BITONAL PROFILES (последний раздел).
Добавляем к нужному разрешению строку pages-per-dict=<кол-во страниц>
Например:
#@displayName:Bitonal (600 dpi)
#@readOnly:true
bitonal600: bitonal
dpi=-600
aggressive=true
pages-per-dict=20


Всё сделал согласно Вашей инструкции.
Проверка дала следующий результат:
После того как в файл конфигурации была добавлена строка
pages-per-dict=200
и заново проведена кодировка той же книги с изменёнными параметрами словаря,
размер полученного файла составил 10192 кб, вместо предыдущих 9891кб.
Компьютер при кодировке сильно "призадумался" на последних 99% (думал минут 5-10).
Для справки:
CPU - AMD Athlon(tm) 64 X2 Dual Core Processor 3800+
RAM - Hyundai HYMD512 646B8J-D43 (два модуля по 1Gb).

Жду Ваших разъяснений.

 
 
 
 
Сообщение29.04.2006, 13:53 
Аватара пользователя
вместо 20 Вы взяли на порядок больше. И все, больше экспериментов не хотите? Во-первых, попробуйте на 20-ти, а во-вторых, проведите еще 3-4 эксперимента. А потом разъяснения ожидайте.

 
 
 
 
Сообщение29.04.2006, 14:14 
cepesh писал(а):
вместо 20 Вы взяли на порядок больше. И все, больше экспериментов не хотите? Во-первых, попробуйте на 20-ти, а во-вторых, проведите еще 3-4 эксперимента. А потом разъяснения ожидайте.

Так было же заявлено, что чем больше страниц кодировать за один раз, тем больше выигрыш. Или я ошибаюсь?
Вы считаете, что существует какая-то другая закономерность?
Тогда скажите какая, и не надо будет тратить время и силы на поиск оптимального размера словаря.

 
 
 
 
Сообщение29.04.2006, 14:29 
Аватара пользователя
Я вам сказал, что нужно попробовать сделать.

 
 
 
 
Сообщение29.04.2006, 14:36 
cepesh писал(а):
Я вам сказал, что нужно попробовать сделать.

Почему ни кто из "специалистов", которые работают с форматом DJvu, не поправил утверждения о том, что кодировка большого количества страниц с увеличенным словарём даёт выигрыш в объёме файла? Это корпоративная солидарность, или слепая вера "авторитету"?

 
 
 
 
Сообщение29.04.2006, 14:58 
Аватара пользователя
Если Вы отказываетесь подумать самостоятельно, могу дать следующий хинт: оптимальное количество страниц, по которым составляется словарик, зависит от качества книги и, как следствие, похожести букв в пределах страниц, отведенных на один словарик.

Update
Дан векторный pdf, 42 страницы. В основном текст.
Задача: получить несколько вариантов djvu с отличающимся pages-per-dict:
Изображение
Прогресс налицо. Что логично, так как при увеличении pages-per-dict словарь не раздувается до неприличия. Это вызвано тем, что pdf векторный, то есть случай идеальный и вероятность того, что для буквы w в словаре будет несколько экземпляров очень мала.

2 страницы на словарь:
Изображение

64 страницы на словарь:
Изображение

 
 
 
 
Сообщение29.04.2006, 15:13 
Варяг писал(а):
cepesh писал(а):
Я вам сказал, что нужно попробовать сделать.

Почему ни кто из "специалистов", которые работают с форматом DJvu, не поправил утверждения о том, что кодировка большого количества страниц с увеличенным словарём даёт выигрыш в объёме файла? Это корпоративная солидарность, или слепая вера "авторитету"?


Другими словами, заявление о том, что чем больше страниц в кодируемом файле, тем больше выигрыш в объёме получаемого файла, мягко говоря, не совсем соответстует действительности, т.е. является дезинформацией.
На этом считаю дискуссию законченной.

 
 
 
 
Сообщение29.04.2006, 15:19 
Аватара пользователя
Варяг писал(а):
Варяг писал(а):
cepesh писал(а):
Я вам сказал, что нужно попробовать сделать.

Почему ни кто из "специалистов", которые работают с форматом DJvu, не поправил утверждения о том, что кодировка большого количества страниц с увеличенным словарём даёт выигрыш в объёме файла? Это корпоративная солидарность, или слепая вера "авторитету"?


Другими словами, заявление о том, что чем больше страниц в кодируемом файле, тем больше выигрыш в объёме получаемого файла, мягко говоря, не совсем соответстует действительности, т.е. является дезинформацией.
На этом считаю дискуссию законченной.


Ваша манера ведения дискуссии лично меня напрягает. Напоминает "Все пидарасы, а я -- д'Артаньян". Я вам говорю, что Вы не правы. Выше небольшое доказательство. Позже рассмотрю плохой случай.

Update: А еще господин Варяг не удосужился сперва воспользоваться поиском по форуму. http://dxdy.ru/viewtopic.php?t=68

 
 
 
 
Сообщение29.04.2006, 15:50 
Вот моя статисктика:
Кусок в 100 стр. (словарь - размер)

10 - 1884 КБ
20 - 1779 КБ
50 - 1618 КБ
100 - 1539 КБ

Получаем выигрыш в размере соответ.: 5%-14%-18%
Делать размер словаря больше кол-ва страниц в самом файле не целесообразно - уменьшее размера файла очень мало.

Как уже говорилось есть зависимость и от качества исходного материала, если все страницы сделаны с разной яркостью, то конечно размер файла будет не на много меньше, чем с установками "по умолчанию".

И два заявления Варяг в сообщение от Сб Апр 29, 2006 16:13:16
"мягко говоря, не совсем соответстует действительности".
Т.к. книга хоть в 1000 стр. с приемлемым качеством будет меньшего размера со словарём в 1000 стр., чем она же со словарём в 10 стр.
Стат. данные - есть, выводы - есть.
Вот теперь действительно - всё.

P.S.: Интересно, и кто это форум в "базар" превращает и "слепо не верит" не проверяя всё на опыте?(как уже здесь повелось, вопрос риторический :) )

 
 
 
 
Сообщение29.04.2006, 22:50 
Аватара пользователя
Я тоже решил проверить, не впал ли я в маразм :oops:.
Недавно отсканил книжку по газодинамике - 376 стр., подготовленна в кромсаторе, ч/б тифы в 600 dpi общим объемом 50 946 940 байт.
Кодирование профилем по умолчанию bitonal(600), размер выходного файла 6 997 743 байт.
Кодирование на основе тогоже профиля, но словарь один на всю книгу - 5 166 760 байт.
Разница более чем в треть :?:. Что я сделал не правильно :D.
Для очистки совести, тоже самое, но один словарь на 200 стр. - 5 302 001 байт.
Как тут правильно заметили, результат очень сильно зависит от исходного материала. Например, просили тут книжку по суперструнам, ничего в них не понимаю, но была она в пределах доступности, вот и сделал, посмотреть можно здесь, размер книги получился 6 615 678 байт на 642 стр., и это с учетом внедренного распознанного текстового слоя и двух жирных обложек. А все почему, да потому что книга была напечатана на бумаге типа офисной 80 гр/м^2, что для книг до 95 года издания, как мне кажется редкость. Хотя есть люди, которые специально немного ужирняют результат, что приводит к заметно лучшей степени сжатия.

 
 
 
 
Сообщение30.04.2006, 06:16 
Итак, перечитал заново всю эту ветку(столько времени угробил, ужас).
Нашёл упоминание размера словаря и увеличения сжатия за счёт этого на 20%-30% в одном и том же сообщение.
Потом в сообщение Варяг от Пт Апр 28, 2006 06:17:35 прочитал о кодирование по частям, но ничего о словаре.
Т.е. "говорили" мы тут о разных вещах. (К слову, если по частям делать djvu, то размер тоже будет отличаться в большую сторону в зависимости от кол-ва страниц на эту часть и как это кол-во страниц относится к размеру словаря - если кратно(кол-во словарей целое число), то не значительно)
А то думал, что быть может я что-то не понял и не правильно помнил начало и ход дискуссии. В результате выяснил, что помнил я правильно и "запинали" человека лишь за то, что он не правильно понял и искал во всём "дезинформацию"...
Всё.
З.Ы.: Все возражения, вопросы - в ПМ(ЛС), дабы не разводить "жутких чудовищ"(фле(э)йм, флуд, оффтопик).

 
 
 
 
Сообщение22.07.2006, 21:49 
Judge_AK писал(а):
Вот моя статисктика:
Кусок в 100 стр. (словарь - размер)
10 - 1884 КБ
20 - 1779 КБ
50 - 1618 КБ
100 - 1539 КБ
Получаем выигрыш в размере соответ.: 5%-14%-18%
Т.к. книга хоть в 1000 стр. с приемлемым качеством будет меньшего размера со словарём в 1000 стр., чем она же со словарём в 10 стр.

Скачана книга - 520 стр.
Name: carey1.djvu
URL: http://chaos.dvo.ru/chem3/carey1.djvu
Size: 9134 Мб
Программой Djvudecoder вытащены тифы, а потом Document Express Enterprise (словарь - 1000) получен djvu 7140 Мб.
Еще: Solo сделал djvu-книги: 7,7 9,0 17,0 6,5 Мб , а Document Express Enterprise -
соответственно 3,7 5,2 8,3 3,5 Мб

 
 
 [ Сообщений: 44 ]  На страницу Пред.  1, 2, 3


Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group