Программа для конвертации HTML в PDF «VeryPDF HTML Converter»

Скачать VeryPDF HTML Converter v.2 Full (3 Mb): depositfiles.com

Программа VeryPDF HTML Converter предназначена для сохранения html страниц и целых сайтов в формате PDF.

Программа VeryPDF HTML Converter v.2
Рис.1. Программа VeryPDF HTML Converter v.2

С помощью этой программы можно переконвертировать сохраненные html страницы в один pdf документ или даже выкачать целый сайт, который также будет сохранен в одном единственном файле.

Узнать больше


Уменьшение времени загрузки js и css файлов

Каждый разработчик javascript приложений рано или поздно сталкивается с проблемой большого (относительно конечно) времени загрузки подключаемых js и css файлов. Эта проблема, как известно, происходит из двух причин: большого количества подключаемых файлов (браузер имеет ограничение на количество одновременно скачиваемых файлов, поэтому пока не скачается один, браузер не приступит к скачиванию другого) и большого размера используемых библиотек (prototype, extjs и т.д.)

Решением могло было быть ручное объединение всех подключаемых файлов в один, но это делает неудобным дальнейшие корректировки файлов, поэтому целесообразно использовать автоматическую сборку и компрессию итогового файла. Но, компрессия увеличивает нагрузку на сервер, поэтому желательно использовать кэширование, причем учитывающее возможность изменения файлов…

Узнать больше


Redirect

«301 Permalink Redirect» является самым эффективным и дружелюбным для поисковых систем методом для перенаправления сайтов. Его можно использовать в различных ситуациях, включая:

  • Перенаправить старый сайт на новый адрес
  • Создать несколько доменов, указывающих на один сайт
  • Чтобы обеспечить лишь одну версию своего сайта (с www или без www)
  • Чтобы синхронизировать изменения в структуре URL

Есть несколько способов для установки 301 перенаправления. Рассмотрим наиболее используемые из них:

Узнать больше


ЧПУ – человекопонятные URL

Как разбить URL на переменные?
Вводная:
Помогите разбить URL на переменные: https://name.com/content/article/1/

Ответ:

  • Получить URL так $url = $_SERVER[‘REQUEST_URI’];
  • Далее, воспользоваться командой explode

Вариант от Нечто (mod_rewrite и разбор пути средствами PHP):
Узнать больше


Сокращение времени загрузки страниц с помощью CSS

Несмотря на всё большее распространение широкополосного доступа к Интернету, проблемы скорости загрузки HTML-страниц всё ещё не безразличны многим пользователям Сети, особенно на просторах бывшего Союза. CSS (Cascading Style Sheets) может помочь в этом деле, сэкономив нам время и трафик.

Избегайте использования таблиц для разметки страницы

Вот шесть причин, по которым лучше использовать CSS, а не таблицы, для разметки страниц:

  • Браузеры анализируют таблицы дважды: первый раз для того, чтобы оценить структуру таблицы, и второй — для определения их содержимого.
  • Таблицы отображаются сразу полностью, а не по мере загрузки.
  • Таблицы заставляют использовать прозрачные картинки для определения ширины колонок и т.п.
  • CSS требует гораздо меньше кода, чем перегруженные таблицы.
  • Весь CSS-код может быть вынесен во внешний файл, который будет грузиться всего один раз и храниться в кэше браузера.
  • При помощи CSS можно контролировать очерёдность загрузки элементов страницы.

Узнать больше


Хэширование паролей в PHP

В этой статье мы рассмотрим процесс хэширования паролей, не слишком сложный, но относительно мало распространенный процесс в web-программировании. Хранение паролей пользователей в открытом виде в базе данных — не слишком хороший подход, особенно если к этой базе может получить доступ любой пользователь интернета. Хэширование не панацея, но может значительно уменьшить ущерб в случае кражи данных. Что такое хэш-функция? Это функция, обладающая бесконечной областью определения, но конечной областью значения и одной интересной особенностью: даже при небольшом изменении входного значения значение функции меняется радикально. Основное назначение хэш-функций в криптографии — это генерация ключей на основе коротких и запоминаемых паролей (слабо запомнить 16 шестнадцатеричных разрядов?).

Узнать больше


Robots.Txt

Файл robots.txt необходим для того, чтоб запретить сетевым роботам (web crawlers, например, поисковым ботам) доступ к части содержимого сайта. Для определенного сайта файл robots.txt может быть только один и находится исключительно в корневой дирректории сайта (т.е. /robots.txt). Так как URL чувствительны к регистру, то необходимо помнить, что название файла robots.txt пишется строчными буквами.

Правила запрета или разрешения на индексацию разделяются между собой пустой строкой. Первая строка правила содержит информацию об сетевом роботе User-agent: и имя этого робота (если правило распространяется на всех роботов, то ставится звездочка *). Следующие строки содержат информацию об запрещенных или разрешенных для индексации дирректорий (Disallow:). Если имя дирректории отсутствует, то индексация разрешена. Каждой инструкции Disallow соответствует одня дирректория. Если нужно закрыть несколько дирректорий, то для каждой необходимо писать свою инструкцию Disallow.

Узнать больше


Добро пожаловать на WEB-scripting

Для тех кто видел по этому адресу другие ресурсы:

  • Lineage 2
  • Blog
  • Сайт клана BattleRager
  • Сайт посвященный MUD — отсутствует (к сожалению)