📈sflash.biz
С нами с 03.11.12
Сообщения: 3913
Рейтинг: 4447
|
Добавлено: 24/10/16 в 21:36 |
Есть файл 100Кб+, который раз в несколько секунд надо некоторым способом парсить скриптом. Т.е. каждый раз при запуске php скрипта (как я сказал довольно часто) файл подгружается и некоторым способом обрабатывается. Возможно PHP попробует оптимизировать и загонит этот файл в память, а возможно и нет.
Как лучше поступить дабы не нагружать дисковый IO? Пока из идей загнать файл в кеш, но этот способ на крайний вариант. Может в php 7 есть что-то на этот случай.
|
|
|
|
💀💀💀
С нами с 31.05.10
Сообщения: 4689
Рейтинг: 728
|
Добавлено: 25/10/16 в 00:06 |
есть ссд, и похуй на ио =)
там от 40тысяч до полутора миллионов ио против 160 на всяких крутящихся.
|
|
|
|
Web Developer С++
С нами с 25.11.01
Сообщения: 859
Рейтинг: 759
|
Добавлено: 25/10/16 в 00:44 |
|
|
|
|
www.phpdevs.com
С нами с 24.10.02
Сообщения: 16633
Рейтинг: 16105
|
Добавлено: 25/10/16 в 03:04 |
Если файл открывается на чтение, то пофигу абсолютно. Это очень легкая операция и к тому же кешируемая системой. 99.999% ресурсов сожрет именно парсинг.
Тут лучше оптимизировать так, что бы кешировался результат парсинга.
|
|
Пишу на php/mysql/django за вменяемые деньги.
Обращаться в личку.
|
7
|
|
|
С нами с 09.08.12
Сообщения: 185
Рейтинг: 378
|
Добавлено: 25/10/16 в 07:12 |
кешируй в php результаты парсинга - т.е. оптимизировать парсер и поменять способ хранения.
далее просто подключаеш $data = include "твой файл c данными.php"
так php заиспользует opcache- а там само разберется в файл кешировать или в память.
|
|
|
|
📈sflash.biz
С нами с 03.11.12
Сообщения: 3913
Рейтинг: 4447
|
Добавлено: 25/10/16 в 13:20 |
Ailk: Да, SSD и он тоже не резиновый.
DF™: Что-то такое я и искал.
Stek: Есть подозрение, что сисетма кеширует, но как всегда бывает и система вроде дефолтная, а какой-то парметр админ отключил, так как он по какой-то странной причине, ну хотел именно так! Сталкивался с подобным, когда админы отключают кеширование вебсервера без обьяснения причин или временно, затем забыл включить. Сервисы работают на мониторинге, админа мало волнует остальные детали.
rickdeckard: Можно и так попробовать. Спасибо. Замечу, что бывает, что и этот кеш отключали мне админы в одном из ДЦ, как типа не приносящий особого эффекта, что, как минимум мне казалось странным.
|
|
|
|
С нами с 19.11.02
Сообщения: 95
Рейтинг: 218
|
Добавлено: 25/10/16 в 14:22 |
Если это лог, который модифицируется постоянно или нечто похожее на лог. То тут возможно стоит хранить/изменять/читать этот лог в/из памяти(memcache|redis|APCu или вообще в tmpfs).
Если же это просто файл для чтения, с набором неких данных, то он 100% закешируется системой в cached Mem(если свободной памяти достаточно).
|
|
|
|
📈sflash.biz
С нами с 03.11.12
Сообщения: 3913
Рейтинг: 4447
|
Добавлено: 25/10/16 в 14:31 |
Axel: Это просто csv данные только для чтения, для обработки входящих извне данных.
Пока сделал влоб через file_get_contents.
|
|
|
|
С нами с 11.10.12
Сообщения: 428
Рейтинг: 1032
|
Добавлено: 25/10/16 в 15:40 |
Если постоянно читается один и тот же файл такого размера, очень вероятно система его держит в дисковом кэше.
Если же дисковый кэш настолько загружен, что файл каждый раз считывается с диска, то проблема с IO не в том месте, где ты её ищешь.
По shmop и прочему. Меня терзают смутные сомнения, что разбор csv (не руками, а fgetcsv/ str_getcsv) быстрее разделяемых способов хранения просто потому, что не нужен затратный unserialize.
Если у скрипта очень тяжелый старт (загрузить большую кучу данных, что-то посчитать и только после этого он готов к работе), тогда смысл что-то делать есть. В твоем случае смысла не видно.
Если ты в неведении о текущей загруженности IO, посмотри в вывод
(первый блок не смотри, это общая статистика с момента загрузки; дальше раз в 2 секунды выводится текущая статистика).
Последи за колонками avgqu-sz (средняя длина очереди) и %util (общая загруженность). Если значения постоянно сидят близко к нулю, пусть всё работает как есть.
|
|
apache, bash, css, elasticsearch, ffmpeg, html, js, mysql, mongo, nginx, php; *nix only
|
7
|
|
|
💀💀💀
С нами с 31.05.10
Сообщения: 4689
Рейтинг: 728
|
Добавлено: 25/10/16 в 16:28 |
|
|
|
|
📈sflash.biz
С нами с 03.11.12
Сообщения: 3913
Рейтинг: 4447
|
Добавлено: 25/10/16 в 17:48 |
Там немного не стандартный csv и парсиь его удобно регуляркой, так как имеет значение в 99% только вхождение ключевика в файл.
|
|
|
|
С нами с 09.03.09
Сообщения: 6053
Рейтинг: 3538
|
Добавлено: 25/10/16 в 18:01 |
Можно смешать код и данные: разбирать цсв по крону и модифицировать код основного скрипта подставляя сразу готовые данные.
Плохо, но эффективно. Так обычно гадость всякая делает.
|
|
|
|
С нами с 05.04.07
Сообщения: 1661
Рейтинг: 1090
|
Добавлено: 25/10/16 в 20:08 |
Давно не писал на php, но может есть смысл демонизировать скрипт и сделать event loop, а не рестартить его раз в несколько секунд? Если старт ресурсоёмок само собой (много либ, коннектов куда-нибудь и т.д.)
Как уже выше писали - размер файла не тот что бы париться, скорее всего будет сидеть в кеше
|
|
|
|
💀💀💀
С нами с 31.05.10
Сообщения: 4689
Рейтинг: 728
|
Добавлено: 26/10/16 в 07:27 |
Yacc писал: | Можно смешать код и данные: разбирать цсв по крону и модифицировать код основного скрипта подставляя сразу готовые данные. |
Или, подогревать кеш результата парсинга кроном, и уже не так гадостно будет
|
|
|
|