Yani 100+ MB büyüklüğünde; bu tür metin dosyaları editörlerin sınırlarını zorlayabilir.
Büyük bir XML dosyasına bakmam gerekiyor, ancak editör hatalıysa bakamıyorum.
Öneriniz var mı?
VS Code (Windows, macOS, Linux) - Güzel bir GUI ile Ücretsiz ve Açık Kaynak. Bir dakika içinde yüklenen 3,6 GB JSON dosyasını düzenledi. Dosyaları yüklemek için yeterli RAM'e sahip olmalısınız.
Ücretsiz salt okunur görüntüleyiciler:
tail
." Dosya izleme, arama, filtreleme, yapılandırılabilir vurgulama, eklentiler ve harici araçları destekler.Özgür editörler:
Yerleşik programlar (kurulum gerektirmez):
more
u değil, Windows MORE
u ifade eder. Bir dosyayı her seferinde bir ekran görüntülemenizi sağlayan bir konsol programı.Web izleyicileri:
Ücretli editörler:
Ve son olarak, büyük dosyayı normal düzenleyicinizle açmayı denediniz mi? Bazı editörler aslında oldukça büyük dosyaları işleyebilir. Özellikle Notepad++ (Windows) ve Sublime Text (Windows, macOS, Linux) 2 GB aralığındaki dosyaları destekler.
Neden (büyük) bir dosyaya sadece bakmak için editör kullanıyorsunuz?
Nix veya Cygwin altında, sadece less kullanın. (Ünlü bir deyiş vardır - "less is more, more or less" - çünkü "less" daha önceki Unix komutu "more"'un yerini almıştır, ek olarak yukarı kaydırabilirsiniz). less altında arama ve gezinme Vim'e çok benzer, ancak takas dosyası yoktur ve çok az RAM kullanılır.
GNU less'un bir Win32 portu vardır. Yukarıdaki cevabın "less" bölümüne bakınız.
Perl hızlı komut dosyaları için iyidir ve ..
(range flip-flop) operatörü, içinden geçmeniz gereken pislikleri sınırlamak için güzel bir seçim mekanizması sağlar.
Örneğin:
$ perl -n -e 'print if ( 1000000 .. 2000000)' humongo.txt | less
Bu, 1 milyon satırdan 2 milyon satıra kadar her şeyi çıkaracak ve çıktıyı daha az manuel olarak elemenize izin verecektir.
Başka bir örnek:
$ perl -n -e 'print if ( /regex one/ .. /regex two/)' humongo.txt | less
Bu, "regular expression one" bir şey bulduğunda yazdırmaya başlar ve "regular expression two" ilginç bir bloğun sonunu bulduğunda durur. Birden fazla blok bulabilir. Çıktıyı eleyin...
Bu da kullanabileceğiniz bir başka faydalı araçtır. Wikipedia makalesinden]3 alıntı yapmak gerekirse:
logparser, başlangıçta bir Microsoft çalışanı olan Gabriele Giuseppini tarafından IIS günlüğü testlerini otomatikleştirmek için yazılmış esnek bir komut satırı yardımcı programıdır. Windows işletim sistemi ile kullanılmak üzere tasarlanmıştır ve IIS 6.0 Kaynak Kiti Araçlarına dahil edilmiştir. Logparser'ın varsayılan davranışı, komut satırında bir SQL ifadesi alarak ve SQL ifadesi için eşleşmeleri içeren satırların çıktısını alarak bir "veri işleme boru hattı" gibi çalışır.
Microsoft, Logparser'ı günlük dosyaları, XML dosyaları ve CSV dosyaları gibi metin tabanlı verilerin yanı sıra Olay Günlüğü, Kayıt Defteri, dosya sistemi ve Active Directory gibi Windows işletim sistemindeki temel veri kaynaklarına evrensel sorgu erişimi sağlayan güçlü ve çok yönlü bir araç olarak tanımlıyor. Giriş sorgusunun sonuçları metin tabanlı çıktıda özel olarak biçimlendirilebilir veya SQL, SYSLOG veya bir grafik gibi daha özel hedeflere kalıcı olarak gönderilebilir.
Örnek kullanım:
C:\>logparser.exe -i:textline -o:tsv "select Index, Text from 'c:\path\to\file.log' where line > 1000 and line < 2000"
C:\>logparser.exe -i:textline -o:tsv "select Index, Text from 'c:\path\to\file.log' where line like '%pattern%'"
100 MB çok büyük değil. 3 GB biraz büyük olmaya başladı. Eskiden ABD'deki birinci sınıf postanın yaklaşık %2'sini üreten bir baskı ve posta tesisinde çalışıyordum. Teknik liderliğini yaptığım sistemlerden biri, posta parçalarının yaklaşık %15+'sını oluşturuyordu. Burada ve orada hata ayıklamamız gereken bazı büyük dosyalarımız vardı.
Buraya daha fazla araç ve bilgi eklemekten çekinmeyin. Bu yanıtın topluluk vikisi olmasının bir nedeni var! Hepimizin büyük miktarda veriyle başa çıkma konusunda daha fazla tavsiyeye ihtiyacı var...