грубо говоря - вместе с мусором оно ребилдится или как. упд. т.е. на оригинальном диске в файловой системе сектор/кластер отмечен как свободный, а непосредственно на ссд он засран. Т.е. перед записью его надо чистить. Так вот при ребилде контроллер копирует содержимое сектора/кластера с точки зрения накопителя или файловой системы. Я этого не знаю.
"Без мусора". SSD организованы не так, как обычные механические диски, соответственно, чтобы поддерживать обратную совместимость, они производят трансляцию Logical block addresses (LBA) в physical page numbers (PPN). Таким образом, контроллер даже не подозревает, что какой-то мусор есть. Вот эту книжку можешь почитать. Про SSD там довольно подробно написано (глава 5). И про организацию оперативной памяти, ну это если интересно PS. увидел "упд." Обычный дисковый контроллер про ФС ничего не знает, он работает уровнем ниже, с блоками устройства, подавая этому устройству команды. А у устройства (диска в нашем случае) свой микрокод, и как этот микрокод на команды контроллера среагирует - отдельный вопрос. Никакой мусор переноситься не будет.
Да сижу уже, читаю умную статью с картинками... В смысле - перечитываю. Я когда-то про трим увидел, почитал, прикинул в уме, посмеялся и забыл.
Падение скорости в 2-3 раза со временем тебя не смущает? Или у тебя диски будут в режиме Read Only пахать?
В целом согласен. В частности, это все таки какое-то общее мерило для расчета storage performance capacity. Две беды: износ и падение производительности. Если база OLAP, то не важно. Если OLTP, то критично. Хотя исходя из того, что там будет 1С, это точно не OLAP.
не... нехорошо быть адвокатом но я тебе аналогию скажу из фидо. ты из чайника превращаешься в кофейник. думай сам.
На записи, тем более мелкими блоками, даже с большим запасом и хорошими алгоритмами довольно быстро забьет все место, потом фрагментирует, а потом резко упадет скорость записи и начнут пилиться диски. Хотя, 3600 серии на 3 года должно при этой нагрузке хватить. Но если бы я собирал этот сетап, я бы поставил SAS6 или SAS12 диски в 10. Один SAS3 15К диск, может до 200 IOps выдать. На зеркале из двух 15К SAS12 сам видел до 800 IOps iostat, sqlite3 база в 60 миллионов записей, delete на таблицу в 48 млн записей.
Не особо много тех, у кого больше опыта с СХД и другими носителями. А ты вместо того, что бы прислушаться, ведешь себя как грушин. Оно мне надо?
надо ради прикола скульного админа запросить скока у нас записей.. чиста информативно... А так, тыж видишь.. странности у Фаса... придумывание "архитектуры на коленке" и при этом 3,5 ляма на инфраструктуру AD на 100 юзеров насчитывает... чудны дела.
Трак - я вижу только "фе..." с твоей стороны. И никакой конкретики. Что ты можешь предложить? Собрать массив из 15к механики? Что касабельно IOPS, да почем я знаю, сколько их там? Не мерил я их. По спецификации, винты (Intel S3510) имеют следующие параметры: Случайное чтение (участок 100%) 68000 IOPS Случайная запись (участок 100%) 15100 IOPS стоят в зеркале. контроллер - Adaptec 6508. Я не оспариваю твой опыт в части работы с системами хранения, но и ты его не абсолютизируй. Есть задача. Есть бюджет. Есть собственный опыт. Послушать знающих людей никогда не вредно, по этому по возможности задаются вопросы и толковые ответы принимаются к сведению. У тебя есть специфическая черта - т.н. "бенедектинская скромность". Это когда ты умный, а другие - дураки, особенно если они не разделяют твое мнение. Нес па? Есть что сказать - говори. Рекомендации, ссылки на материалы - все подойдет. А просто сказать "ты хуй и работа твоя - говно на улицах убирать, а не сеткой рулить...", ну... неконструктивно.
Это кстати каталог Bacula... 48 лямов, это таблица с files. На одном из серверов 2.5 ляма файлов. Всего около 250 серверов. Вот и считай. Да ладно, чуваку поперло. Ну а не готов, так научится. Если перестанет себя самым умным считать.
100 юзеров - это только 1С. Так около двух сотен (чуть больше). 3.5 ляма - это на переход с разнокалиберного софта на единый, подгон оборудования до уровня "что б хотя бы не тормозило" и т.д.
ну не знаю, у меня наверное попроще... мож если не files считать а просто записей.. у меня на основном боевом сейчас 336 миллионов записей и в основном логе 111 миллионов и примерно 60% на резервном. разрабы из одной базы сделали файловое хранилище документообороьа. там что-то около 5 миллионов записей... я прям в шоке, не думал что так много...