На мой скромный взгляд - алгоритм работы с гигантскими файлами немного в стороне от этого.FeyFre wrote:Goodvin
Я вижу два выхода:
1. Либо учим Акел(а заодно и плагины) работать со свопингом, что совсем не просто и займет уйму(уймище) времени.
2. Либо делаем Акел 64-битным(и перекладываем всю ответственность на кол-во памяти у пользователя), что немного быстрее, но я не уверен что мы имеем достаточно опыта миграции на 64, и выловим все подводные камни(что опять таки выльется в доп. время), да плагин тоже перевести нужно будет.
Например, связан с индексированием файла и работой по индексу.
Возможно, есть смысл посмотреть как работает с гигантскими файлами пресловутый вышеупомянутый EmEditor. Что делает со свопом, какие временныые файлы создает и т.п.
Увы, разделять не выйдет. Весь 5-гиговый файл - это цельный структурированный XML. Если разбить его на куски, то невозможно будет отследить по смыслу XML-объекты внутри него. Файл потеряет человекочитабельность.FeyFre wrote: 3. А разделить файлы на куски поменьше не пробовали? Я так понимаю качество обработки от этого не пострадает.