Результаты поиска
Какой самый простой способ добавить сжатие к WCF в Silverlight?
У меня есть приложение silverlight 2 beta 2, которое обращается к веб-службе WCF. Из-за этого в настоящее время он может использовать только привязку basicHttp. Веб-сервис вернет довольно большие объемы данных XML. Это кажется довольно расточительным с точки зрения использования полосы пропускания, поскольку ответ, если его сжать, будет меньше в 5 раз (на самом деле я вставил ответ в txt-файл и сжал его.).
Запрос действительно имеет "Accept-Encoding: gzip, deflate" - есть ли какой-либо способ получить WCF service gzip (или иным образом сжать) ответ?
Я действительно нашел эту ссылку , но она определенно кажется немного сложной для функциональности, которая должна быть обработана out-of-the-box IMHO.
OK-сначала я отметил решение, используя System.IO.Compression в качестве ответа, поскольку я никогда не мог "seem" заставить работать динамическое сжатие IIS7. Ну, как это получается:
Динамическое сжатие на IIS7 работало все время. Просто плагин Nikhil Web Developer Helper для IE не показал, что он работает. Я предполагаю, что поскольку SL передает вызов веб-службы браузеру, то браузер обрабатывает его "under the covers", и инструмент Nikhil никогда не видит сжатый ответ. Я смог подтвердить это с помощью Fiddler, который отслеживает трафик, внешний по отношению к браузерному приложению. В fiddler ответ был, по сути, gzip сжатым!!
Другая проблема с решением System.IO.Compression заключается в том, что System.IO.Compression не существует в Silverlight CLR.
Таким образом, с моей точки зрения, EASIEST способ включить сжатие WCF в Silverlight-это включить динамическое сжатие в IIS7 и вообще не писать код.
Фильтр по коду zip или другим стратегиям поиска данных на основе местоположения
Мой маленький сайт должен объединять список элементов из таблицы, используя местоположение активного пользователя в качестве фильтра. Подумайте Craigslist, где вы ищете "dvd", но результаты не из всех DB, они фильтруются по выбранному вами местоположению. Мой вопрос имеет 2 уровня:
- должен ли я пойти a-la-craigslist и попросить пользователей использовать местоположение на уровне города? Моя проблема с этим заключается в том, что вам нужно создать то, что кажется мне жестко закодированным, сделанным вручную списком местоположений.
- должен ли я пойти a-la-zipCode. Идея просто попросить пользователя ввести его zipcode, а затем объединить все элементы, которые находятся в том же или на определенном расстоянии от его кода zip.
Я, кажется, предпочитаю способ кода zip, поскольку он кажется более элегантным решением, но как на земле можно создать DB из всех кодов zip и реализовать функцию, которая дает код zip 12345, получает все zipcodes на расстоянии 1 мили?
это должно быть довольно распространено "task", поскольку многие сайты имеют потребность, подобную моей, поэтому я надеюсь не изобретать здесь колесо заново.
Есть ли модуль python для сопоставления regex в файлах zip
У меня есть более миллиона текстовых файлов, сжатых в 40 zip файлов. У меня также есть список из около 500 наименований моделей телефонов. Я хочу узнать, сколько раз конкретная модель была упомянута в текстовых файлах.
Есть ли какой-либо модуль python, который может выполнить сопоставление regex с файлами, не распаковывая его. Есть ли простой способ решить эту проблему без распаковки?
Как загрузить и извлечь gzipped файл с C#?
Мне нужно периодически скачивать, извлекать и сохранять содержимое http://data.dot.state.mn.us/dds/det_sample.xml.gz на диск. У кого-нибудь есть опыт загрузки gzipped файлов с C#?
Как лучше всего использовать gzip и кэшировать статические изображения в Asp.net mvc
Я пытаюсь найти лучший способ ускорить доставку статических изображений, которые составляют дизайн сайта mvc. Изображения не являются gzipped, а также не кэшируются на сервере или на клиенте (с истекшим содержимым). Варианты есть:
- Найдите, почему изображения не кэшируются и не gzipped напрямую из IIS6
- Напишите специализированный обработчик http
- Зарегистрировать специальный маршрут для статических изображений и написать actionresult метод двойных
Что может быть лучшим решением с точки зрения производительности?
Создайте зашифрованный файл ZIP в Python
Я создаю файл ZIP с ZipFile в Python 2.5, он работает нормально до сих пор:
import zipfile, os
locfile = "test.txt"
loczip = os.path.splitext (locfile)[0] + ".zip"
zip = zipfile.ZipFile (loczip, "w")
zip.write (locfile)
zip.close()
но я не мог найти, как зашифровать файлы в файле ZIP. Я мог бы использовать system и вызвать PKZIP-s, но я полагаю, что должен быть более "Pythonic" способ. Я ищу решение с открытым исходным кодом.
Почему сжатие ASP.NET gzip портит CSS?
У меня есть приложение ASP.NET webforms (3.5 SP1), над которым я работаю, и пытаюсь включить gzip fpr HTML и CSS, которые спускаются по трубе. Я использую эту реализацию (и попробовал несколько других, которые подключаются к Application_BeginRequest), и, похоже, она разрушает внешний файл CSS, который используют страницы, но intermittently...suddenly все стили исчезнут при обновлении страницы, останутся на некоторое время, а затем внезапно снова начнут работать.
И IE7, и FF3 демонстрируют такое поведение. При просмотре CSS с помощью панели инструментов веб-разработчика, он возвращает тарабарщина. Заголовок cache-control проходит как "private,", но я не знаю достаточно, чтобы выяснить, является ли это фактором, способствующим или нет.
Кроме того, это выполняется на сервере разработки ASP.NET. Может быть, это было бы хорошо с IIS, но я разрабатываю на XP, и это будет IIS5.
Лучший / самый быстрый формат сжатия для баз данных (sqlserver)?
Кто-нибудь нашел хороший формат сжатия для баз данных MS Sqlserver? Если да, то что вы используете и довольны ли вы тем, как он работает?
Моя компания часто сжимает снимок базы данных с одного из наших клиентов и загружает его, чтобы у нас была локальная копия для тестирования и разработки. Мы пробовали zip в прошлом, но как только файлы базы данных пересекли границу 4Gb, нам пришлось использовать rar (zip-это только 32-бит). Проблема в том, что RAR занимает много времени для сжатия, и мы не знаем, дает ли он нам лучшую степень сжатия.
Это не вопрос о утилите сжатия, а формат сжатия. Мы используем WinRar, но рассматриваем 7zip, который поддерживает ряд форматов.
Автоматический скрипт для zip IIS журналов?
Я хотел бы написать сценарий / пакет, который будет собирать мои ежедневные журналы IIS и zip по месяцам.
ex080801.log который находится в формате ex yymmdd .log
ex080801.log - ex080831.log получает молнии и файлы журнала удаляются.
Причина, по которой мы делаем это, заключается в том, что на тяжелом сайте файл журнала За один день может составлять от 500 МБ до 1 Гб, поэтому мы zip их сжимаем, который сжимает их на 98% и сбрасывает реальный файл журнала. Мы используем webtrend для анализа файлов журнала, и он способен считывать в файл zip.
Есть ли у кого-нибудь идеи о том, как это сделать, или вы хотели бы поделиться каким-то кодом?
Вопрос о архивации для бекапа
Все документы архивирую в 7z без сжатия, но с паролем и со скрытием имен файлов.
Подскажите, есть ли смысл в пароле так как данные не сжимаются, а просто склеиваются один за другим, и думаю возможно будут вытащены из такого архива.
426   4   13:14, 4th August, 2020
Как разделить zip-архив на части при создании [Linux]
Есть большие папки (заведомо больше 2Гб, что является пределом для размера зип-архива по спецификации). Нужно их заархивировать, причем, создав многотомный архив (размеры частей по 500МБ, например).
Весь man zip перечитал — ничего похожего не увидел. zipsplit разбивает на части уже готовый архив (но я не смогу создать его >2ГБ, чтобы потом разбить).
Другие форматы архивов не подходят по многим причинам.
Есть выход из этой проблемы?
Если важно, debian lenny.
Спасибо.
Архивирование в самодостаточные тома
Есть ли такой софт, который позволяет архивировать (со сжатием) большие объёмы данных (600—700 гигабайт), создавая при этом отдельные, самодостаточные архивы (например, размером по 1—2 гигабайта), а не просто один архив, поделённый на отдельные файлы, распаковать который можно только имея все его части.
Ключевое слово здесь: самодостаточные. То есть чтобы каждый из элементов этого большого архива можно было распаковать без проблем, не имея других его частей.
271   3   09:20, 27th August, 2020