stals
Присмотримся.
Буду пробовать всё.
Сервера работают, некоторые и по году, но всего их к данному моменту уже больше 70, с региональным разбросом от украины до дальнего востока... и это без клиентских машин, которые тоже имеют место быть... За всем не уследишь (сбои питания, глюк в базах, дурной пользователь, выход из строя железа, разлетевшийся RAID и т.д.) и всё это в разных часовых поясах. Интересно, а скольты ты возмешь, если такое понадобиться;) У нас компния денег на самолет не дает, ездить придётся на поездах:)
Demon Hitman
мда, работал я как то в подобной конторе, зачастую "это" и серверами назвать сложно бывает.
держись брат! и на твоей улице перевернется грузовик с рейд-контроллерами и САС-дисками как говорится.
договориться можно, если нужда в этом есть реальная в компании и они готовы пойти по пути увеличения надежности инфраструктуры. без анализа - что есть сейчас - не могу сказать, не подумай, что жаба душит опытом поделиться. в такой распределенной сети и решения нужны серьезные, но подъемные по финансам при текущей экономической --вырезано цензурой--,
а такие решения есть, не первый раз делаю.
stals
Ты прав, серверами многое назвать язык не поднимается (на некоторых даже элементарно RAID не поднят - просто не на чем). Пока вроде без больших проблем... Но они назревают, все машинки без доменов, хотелось бы ввести, но рисковать уж сильно приходиться, да и хотелось бы чтобы там находился резервный контролер домена, а его нет, даже на регион, не говоря уже про каждое подразделение... Да и ещё внедряются новые системы, в которые меня как недавно пришедшего и без командирских лычек не посвещают (сидят трое и чтото решают, а остальные 20 курят думают что им там наготовят)... А систему мониторинга хотелось бы ввести, что бы знать от чего вдруг сервера встали... хотя бы чтоб какая нить статистика была
Demon Hitman
они там сообразят "на троих":)
в большинстве рейд контроллеров есть программно-аппаратные комплексы для сообщения о статусе, им только СМТП сервер показать надо и куда отправить. в серверах настоящих можно плату аппаратную мониторинга воткнуть, если не было ее сразу в поставке, она может многое. в "сервера" на худой конец есть платы-GPRS-модемы еще, они СМСками общаются, я такие в кассовые аппараты ставил, чтобы данные с кассы в ЦОД не на флешке таскать, а по инету, ну и мы еще РАдмином на кассы лазили, когда кассиры тупили что либо сделать сами. они могут по специальной СМС в ребут уйти в случае "мертвого" зависания и еще всякое разное сотворить, скрипт запустить например в случае чего.
по другому только монстр типа Microsoft System Center/MOM/SMS выручит, но его внедрение денег стоит, не знаю как у вас с инвестициями в ИТ, наверняка негусто.
мда, работы тебе хватит, главное центральный процессор вовремя пивом задабривать, чтобы не перегрелся.
stals
Напарник появился, пришел от интернет провайдера:) Хороший сетевик (отличный). Поднял Catci - так что с меня головная боль снялась - зато других поприбавилось - дала знать о себе экономия на оборудовании в период становления компании - оборудование просто перестало справляться с нагрузкой- а купить все что нужно - почти больше в 3 раза годового бюджета выделеного на IT... Что здесь посоветуешь?
Demon Hitman
Так, а основная нагрузка на что ложится? На сеть, на дисковую подсистему, на процессоры, на память, или канал в инет мелковат? Выяснил, что именно является узким местом? Пока этого не знаешь, советы толку мало принесут.
stals
Сеть держиться, пока, пока большинство на терминалах. Хотя я не приветствую разделение витухи на 2 канала (одним кабелем подключают 2 точки, забудем о наводках внутри (обычно один канал сеть другой телефон)) - но просто уже искажение на кроссировании получается, т.к. ни о каких 5e тут и речи не идет. Плюс приличная часть кабелей на разрыве и пропаяна. Доказать что припой на высокочастотных сигналах беда ещё большая, чем наводки - не получилось. Но в целом пока работает, и сетевые проблемы особо не проявляют себя.
Переделать по другому нельзя, политика компании - экономия:(
А вот в чем проблема - когда то покупали всё из разряда - что подешевле, так Exchange стоит на дермовенькой microATX плате асус - мало того что рейд тормозит встроенный, так не хватает памяти - а увеличить её нельзя... Вот уже одна задача - перенос Exchange. И все остальные так называемые сервера не лучше. Собраны как попало и в чем попало, никаких там фильтров от пыли и какого либо резерва - работает - да и ладно. В основном не хватает памяти, но на самом деле всё легче просто поменять, чем апгрейдить... Но как обычно, всё вне бюджета, поэтому латаем, латаем, латаем
Demon Hitman
Медицина тут бессильна... поможет только вскрытие... после смерти.
Про "сеть" помолчим и выпьем не чокаясь, о мертвых только хорошое... помолчим.
Подсчитать всеми доступными средствами риски, примерно подсчитать убытки из-за простоя, рассчитать КПД системы или отдельных узлов. То есть, чтобы тебе убедить начальство выделить бюджет надо предоставить факты. К примеру, час простоя почтового сервера приносит компании недополучение прибыли в среднем на 1000 долларов (про убытки не знаю, у нас они исчислялись десятками тысяч, плюс подмоченная репутация). Среднее количество часов в месяц, когда сервер "лежит" и не выполняет свои прямые обязанности допустим 4. Стало быть, в месяц просто недополучаем 4000. Это все условно конечно же, методика расчета черт ногу сломит, но хоть что то. Новый сервер на САС дисках, в рейде 10 (без излишеств) на базе Адаптек ASR-2405 (к примеру всего лишь), с коре 2 квад процессором и 4Гб памяти, серверной мамкой типа S32xxx, интеловым корпусом под рек маунт обойдется примерно в 3000-4000. Если принять во внимание, что месяцев у нас 12, то даже далекий от математики и экономики человек поймет (это не утверждение - это надежда), что выгоднее купить новое оборудование. С сетью чуть сложнее, донести до руководства мысль, что они купили оборудование из расчета работы со скоростью 100МБ, а она из-за "исторически сложившихся" факторов от силы отрабатывает лишь на 50-60МБ, что опять таки потеря денег. Еще минусом является, что при низкой скорости работы сети сотрудники тратят времени на 40% больше для выполнения ряда задач, связанных с сетевыми приложениями. А это время оплачивает компания и следовательно, сотрудники впустую тратят время и деньги, так как производительность их труда на те же 40% меньше и они в этом ничуть не виноваты. Загрузка сети более чем на 90% уже проблема, но в данном случае имеется в виду, что сеть работает лишь в половину своих расчитанных заранее возможностей. Переходим к водным процедурам. Резервное копирование:). Самое простое и сложное одновременно. Понимает ли руководство, сколько времени потребуется, чтобы запустить всю ИС в случае больших сбоев и необходимости восстановления с резервных копий? Есть ли план действий в такой ситуации? Сможет ли отдел продаж прожить без своей системы сутки, двое, трое? Что скажут клиенты в ответ на невозможность осуществить заказ? Какие убытки и неустойки придется заплатить компании в случае нарушения графика поставки оплаченных или только заказанных товаров или услуг? В общем "этот веселый список" несколько зависит от сферы деятельности и далеко не весь.
Ищи эти болевые точки, если не подействует, то поискать заранее хорошую вакансию без привлечения внимания будет хорошей идеей, ибо без вышеописанного жить на этой пороховой бочке довольно неуютно и по всей видимости недолго мучаться осталось (могу ошибаться, это мое лишь мнение, хоть и подкрепленное многолетним опытом). А то банкрот и "ариведерчи господа, спасибо за везвозмездный труд". Экономия на всем до добра не доводит, а скупой платит дважды-трижды.
....ну на вскидку ремоутом смотреть или пингов десяток запустить по адресам активных ус-в...