Помогите с концепцией...

beba

Новичок
Помогите с концепцией...

Вот такие ресурсы:
Есть локальная сеть. В ней находиться около 20 компов ОС Windows.
Есть в этой сети сервер Linux Fedora Core 2, через которого все эти 20 компов ходят в интернет. На сервере крутиться парочка клонов сайтов. По структуре одинаковы, информационная часть различна. Доступ к сайтам есть как с локальных компьютеров, так и с внешних(из интернета).
Есть хостинг, и хорошие возможности на нем (в плане вкусное приложение, где ограничений очень мало).

Вот такие вопросы решаются:
Возмен по отдельности один сайт (из группы клонов).
На сайте находится информация, которая берется в основном из базы данных. Пополнение(обновление) базы данных происходит в основном одним способом: импорт данных из dbf и xls(csv) файлов. Пополнение(обновление) происходит несколько раз в день. Количество добавляемых/обновляемых данных за один раз для одного сайта достигает от 5 до 40 тыс. записей.. (40 тыс. записей может получиться раз в день за неделю). Данные беруться с компов, которые находятся в локальной сети.

На данный момент, как реализовано...
На одном из компьютеров стоит программа, которая забирает, пару раз в день по расписанию, нужные файлы, для обновления информации. Сохраняет эти файлы в архиве(бэкап), после чего копирует по средством pscp на локальный сервер Linux Fedora 2. На сервере запущен cron демон, который обновляет данные на сайте. На сервере делается автоматический бэкап всех баз данных.

Задачи
Т.к. канал на локальном сервере Linux Fedora 2 очень тонкий и расширить его практически нельзя... по этому для размещения сайта для глобальных пользователей(пользователей в интернете) используется хостинг сервер. На котором находятся эти же клоны сайты. Задача стоит в том, чтобы максимально приблизить актуальность данных на хостинг-сервере и максимально уменьшить работу для администратора по поддержки актуальности. На данный момент актуальность данных, которая приемлема, 1 день. Этого вполне достаточно.

Решение, о котором я думаю...
Решение 1.
На локальном сервере происходит автоматический бэкап базы данных раз в день. После бэкапа, кроном запустить скрипт, который по sftp льет дампы баз данных на хостинг-сервер. На хостинг сервере тоже кроном происходит разворачивания дампа. Этот процес сделать ночью, в часика 2-3. В этот момент данные нужны в случае 1 из 1000, и это не критично. Но в момент разворачивания дампа сайт уходит в техническое состояние, вместо обычного сайта, появляется надпись "Сайт находится в состоянии технического обслуживания" ровно до тех пор, пока не произойдет окончательное развертывание дампа. Размер одного дампа для сайта в среднем около 10 Мб.
Решение 2.
Все тоже самое, только вместо дампа гнать файлы dbf и xls, для обновления информации на сайте. Размер этих файлов за день в совокупности чуть больше совокупности дампов.
Этот вариант мне кажется похуже первого...

Вопрос
Какое из решений посоветуете Вы, уважаемые специалисты? Или может быть какое нибудь из моих решений, тоже приемлемо?

З.Ы. Может быть информация изложена недосканально... Можете задавать, если возникунт какие-нибудь вопросы...
 
Сверху