2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




Начать новую тему Ответить на тему На страницу Пред.  1, 2, 3
 
 
Сообщение29.04.2006, 11:44 
Экс-модератор
Аватара пользователя


23/12/05
12064
Варяг писал(а):
Ни в одном эксперименте не измерены ни масса, ни размер фотона, а они, якобы, существуют, и все охотно верят! Хотя простейший расчёт, исходя из времени излучения атомом т.н. фотона, показывает, что "фотон" - миф.
Дабы не быть голословным: время, в течение которого атомом излучается фотон, составляет 10^-7 сек, следовательно, при скорости света 3*10^8 м/сек расстояние от "головы" до "хвоста" т.н. фотона составляет 30 метров! Фотон, который в окно не пролезает!

Модераторы, простите за оффтоп, но я не могу тут смолчать.
Варяг, не говорите таких глупостей и цифр о фотонах, если не знаете, к чему и где лепятся цифры, которые Вы приводите. И, пожалуйста, дабы не разжигать тут флейм и не плодить оффтоп, не отвечайте мне на это в данной теме.

 Профиль  
                  
 
 
Сообщение29.04.2006, 12:54 
Заслуженный участник
Аватара пользователя


06/08/05
414
Dolgopa
Варяг
Цитата:
Т.е. Вы не знаете как настраивается т.н. "словарь", и повторяете чужие слова,

Что за бред. Я чё то не понимаю.
Помоему я внятно написал, что пользуюсь более предпочтительной программой для кодирования. Но такие же результаты, по сокращению объема, можете получить и Вы на Вашей, если оторвете своё самомнение от кресла и посмотрите на чужой опыт.
Пора бы уже знать, что DEE это Document Express Enterprise, а не Document Express Editor, которым Вы пользуетесь :evil:.

 Профиль  
                  
 
 
Сообщение29.04.2006, 13:10 
Заблокирован


23/01/06

586
Judge_AK писал(а):
Папка profiles -> documenttodjvu.conf
Находим BITONAL PROFILES (последний раздел).
Добавляем к нужному разрешению строку pages-per-dict=<кол-во страниц>
Например:
#@displayName:Bitonal (600 dpi)
#@readOnly:true
bitonal600: bitonal
dpi=-600
aggressive=true
pages-per-dict=20


Всё сделал согласно Вашей инструкции.
Проверка дала следующий результат:
После того как в файл конфигурации была добавлена строка
pages-per-dict=200
и заново проведена кодировка той же книги с изменёнными параметрами словаря,
размер полученного файла составил 10192 кб, вместо предыдущих 9891кб.
Компьютер при кодировке сильно "призадумался" на последних 99% (думал минут 5-10).
Для справки:
CPU - AMD Athlon(tm) 64 X2 Dual Core Processor 3800+
RAM - Hyundai HYMD512 646B8J-D43 (два модуля по 1Gb).

Жду Ваших разъяснений.

 Профиль  
                  
 
 
Сообщение29.04.2006, 13:53 
Основатель
Аватара пользователя


11/05/05
4313
вместо 20 Вы взяли на порядок больше. И все, больше экспериментов не хотите? Во-первых, попробуйте на 20-ти, а во-вторых, проведите еще 3-4 эксперимента. А потом разъяснения ожидайте.

 Профиль  
                  
 
 
Сообщение29.04.2006, 14:14 
Заблокирован


23/01/06

586
cepesh писал(а):
вместо 20 Вы взяли на порядок больше. И все, больше экспериментов не хотите? Во-первых, попробуйте на 20-ти, а во-вторых, проведите еще 3-4 эксперимента. А потом разъяснения ожидайте.

Так было же заявлено, что чем больше страниц кодировать за один раз, тем больше выигрыш. Или я ошибаюсь?
Вы считаете, что существует какая-то другая закономерность?
Тогда скажите какая, и не надо будет тратить время и силы на поиск оптимального размера словаря.

 Профиль  
                  
 
 
Сообщение29.04.2006, 14:29 
Основатель
Аватара пользователя


11/05/05
4313
Я вам сказал, что нужно попробовать сделать.

 Профиль  
                  
 
 
Сообщение29.04.2006, 14:36 
Заблокирован


23/01/06

586
cepesh писал(а):
Я вам сказал, что нужно попробовать сделать.

Почему ни кто из "специалистов", которые работают с форматом DJvu, не поправил утверждения о том, что кодировка большого количества страниц с увеличенным словарём даёт выигрыш в объёме файла? Это корпоративная солидарность, или слепая вера "авторитету"?

 Профиль  
                  
 
 
Сообщение29.04.2006, 14:58 
Основатель
Аватара пользователя


11/05/05
4313
Если Вы отказываетесь подумать самостоятельно, могу дать следующий хинт: оптимальное количество страниц, по которым составляется словарик, зависит от качества книги и, как следствие, похожести букв в пределах страниц, отведенных на один словарик.

Update
Дан векторный pdf, 42 страницы. В основном текст.
Задача: получить несколько вариантов djvu с отличающимся pages-per-dict:
Изображение
Прогресс налицо. Что логично, так как при увеличении pages-per-dict словарь не раздувается до неприличия. Это вызвано тем, что pdf векторный, то есть случай идеальный и вероятность того, что для буквы w в словаре будет несколько экземпляров очень мала.

2 страницы на словарь:
Изображение

64 страницы на словарь:
Изображение

 Профиль  
                  
 
 
Сообщение29.04.2006, 15:13 
Заблокирован


23/01/06

586
Варяг писал(а):
cepesh писал(а):
Я вам сказал, что нужно попробовать сделать.

Почему ни кто из "специалистов", которые работают с форматом DJvu, не поправил утверждения о том, что кодировка большого количества страниц с увеличенным словарём даёт выигрыш в объёме файла? Это корпоративная солидарность, или слепая вера "авторитету"?


Другими словами, заявление о том, что чем больше страниц в кодируемом файле, тем больше выигрыш в объёме получаемого файла, мягко говоря, не совсем соответстует действительности, т.е. является дезинформацией.
На этом считаю дискуссию законченной.

 Профиль  
                  
 
 
Сообщение29.04.2006, 15:19 
Основатель
Аватара пользователя


11/05/05
4313
Варяг писал(а):
Варяг писал(а):
cepesh писал(а):
Я вам сказал, что нужно попробовать сделать.

Почему ни кто из "специалистов", которые работают с форматом DJvu, не поправил утверждения о том, что кодировка большого количества страниц с увеличенным словарём даёт выигрыш в объёме файла? Это корпоративная солидарность, или слепая вера "авторитету"?


Другими словами, заявление о том, что чем больше страниц в кодируемом файле, тем больше выигрыш в объёме получаемого файла, мягко говоря, не совсем соответстует действительности, т.е. является дезинформацией.
На этом считаю дискуссию законченной.


Ваша манера ведения дискуссии лично меня напрягает. Напоминает "Все пидарасы, а я -- д'Артаньян". Я вам говорю, что Вы не правы. Выше небольшое доказательство. Позже рассмотрю плохой случай.

Update: А еще господин Варяг не удосужился сперва воспользоваться поиском по форуму. http://dxdy.ru/viewtopic.php?t=68

 Профиль  
                  
 
 
Сообщение29.04.2006, 15:50 


22/07/05
96
Вот моя статисктика:
Кусок в 100 стр. (словарь - размер)

10 - 1884 КБ
20 - 1779 КБ
50 - 1618 КБ
100 - 1539 КБ

Получаем выигрыш в размере соответ.: 5%-14%-18%
Делать размер словаря больше кол-ва страниц в самом файле не целесообразно - уменьшее размера файла очень мало.

Как уже говорилось есть зависимость и от качества исходного материала, если все страницы сделаны с разной яркостью, то конечно размер файла будет не на много меньше, чем с установками "по умолчанию".

И два заявления Варяг в сообщение от Сб Апр 29, 2006 16:13:16
"мягко говоря, не совсем соответстует действительности".
Т.к. книга хоть в 1000 стр. с приемлемым качеством будет меньшего размера со словарём в 1000 стр., чем она же со словарём в 10 стр.
Стат. данные - есть, выводы - есть.
Вот теперь действительно - всё.

P.S.: Интересно, и кто это форум в "базар" превращает и "слепо не верит" не проверяя всё на опыте?(как уже здесь повелось, вопрос риторический :) )

 Профиль  
                  
 
 
Сообщение29.04.2006, 22:50 
Заслуженный участник
Аватара пользователя


06/08/05
414
Dolgopa
Я тоже решил проверить, не впал ли я в маразм :oops:.
Недавно отсканил книжку по газодинамике - 376 стр., подготовленна в кромсаторе, ч/б тифы в 600 dpi общим объемом 50 946 940 байт.
Кодирование профилем по умолчанию bitonal(600), размер выходного файла 6 997 743 байт.
Кодирование на основе тогоже профиля, но словарь один на всю книгу - 5 166 760 байт.
Разница более чем в треть :?:. Что я сделал не правильно :D.
Для очистки совести, тоже самое, но один словарь на 200 стр. - 5 302 001 байт.
Как тут правильно заметили, результат очень сильно зависит от исходного материала. Например, просили тут книжку по суперструнам, ничего в них не понимаю, но была она в пределах доступности, вот и сделал, посмотреть можно здесь, размер книги получился 6 615 678 байт на 642 стр., и это с учетом внедренного распознанного текстового слоя и двух жирных обложек. А все почему, да потому что книга была напечатана на бумаге типа офисной 80 гр/м^2, что для книг до 95 года издания, как мне кажется редкость. Хотя есть люди, которые специально немного ужирняют результат, что приводит к заметно лучшей степени сжатия.

 Профиль  
                  
 
 
Сообщение30.04.2006, 06:16 


22/07/05
96
Итак, перечитал заново всю эту ветку(столько времени угробил, ужас).
Нашёл упоминание размера словаря и увеличения сжатия за счёт этого на 20%-30% в одном и том же сообщение.
Потом в сообщение Варяг от Пт Апр 28, 2006 06:17:35 прочитал о кодирование по частям, но ничего о словаре.
Т.е. "говорили" мы тут о разных вещах. (К слову, если по частям делать djvu, то размер тоже будет отличаться в большую сторону в зависимости от кол-ва страниц на эту часть и как это кол-во страниц относится к размеру словаря - если кратно(кол-во словарей целое число), то не значительно)
А то думал, что быть может я что-то не понял и не правильно помнил начало и ход дискуссии. В результате выяснил, что помнил я правильно и "запинали" человека лишь за то, что он не правильно понял и искал во всём "дезинформацию"...
Всё.
З.Ы.: Все возражения, вопросы - в ПМ(ЛС), дабы не разводить "жутких чудовищ"(фле(э)йм, флуд, оффтопик).

 Профиль  
                  
 
 
Сообщение22.07.2006, 21:49 


29/06/06
87
Judge_AK писал(а):
Вот моя статисктика:
Кусок в 100 стр. (словарь - размер)
10 - 1884 КБ
20 - 1779 КБ
50 - 1618 КБ
100 - 1539 КБ
Получаем выигрыш в размере соответ.: 5%-14%-18%
Т.к. книга хоть в 1000 стр. с приемлемым качеством будет меньшего размера со словарём в 1000 стр., чем она же со словарём в 10 стр.

Скачана книга - 520 стр.
Name: carey1.djvu
URL: http://chaos.dvo.ru/chem3/carey1.djvu
Size: 9134 Мб
Программой Djvudecoder вытащены тифы, а потом Document Express Enterprise (словарь - 1000) получен djvu 7140 Мб.
Еще: Solo сделал djvu-книги: 7,7 9,0 17,0 6,5 Мб , а Document Express Enterprise -
соответственно 3,7 5,2 8,3 3,5 Мб

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 44 ]  На страницу Пред.  1, 2, 3

Модератор: Супермодераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group