MySQL 1 milyon veri ile yavaşlar mı?

Buyuk sirketlerin kullanici verilerinin hepsi tek bir vt de degildir.

Ayristirmislardir.

Yavaslatmaz ama islem yapacagin zaman bekletebilir seni. Ornegin arama yapacagin zaman.

Arama icin yapacagin algoritma da onemlidir.
 
Buyuk sirketlerin kullanici verilerinin hepsi tek bir vt de degildir.

Ayristirmislardir.

Yavaslatmaz ama islem yapacagin zaman bekletebilir seni. Ornegin arama yapacagin zaman.

Arama icin yapacagin algoritma da onemlidir.
Yani ekleme anlık olur ama veri çekerken uzun sürer diyorsun. Şu anda ne kadar veri var bilmiyorum ama 5.000 civarı olduğunu düşünüyorum. Ben 1 milyonu geç, 100.000'e bile kolay kolay ulaşamam ama optimizasyona önem göstermek lazım. Bir kodu geleceği planlayarak yap ki kaliteli olsun.

Örneğin bu kadar veriyle belirli kriterlere göre 50 adet veri çekince sayfa anında yükleniyor. Peki 100.000 veri var diyelim. Gecikme miktarı ne kadar olur?
 
Yani ekleme anlık olur ama veri çekerken uzun sürer diyorsun. Şu anda ne kadar veri var bilmiyorum ama 5.000 civarı olduğunu düşünüyorum. Ben 1 milyonu geç, 100.000'e bile kolay kolay ulaşamam ama optimizasyona önem göstermek lazım. Bir kodu geleceği planlayarak yap ki kaliteli olsun.

Örneğin bu kadar veriyle belirli kriterlere göre 50 adet veri çekince sayfa anında yükleniyor. Peki 100.000 veri var diyelim. Gecikme miktarı ne kadar olur?
Eklerken de bekleyebilir. Sonuncu indexi ararsa falan filan.
 
Eklerken de bekleyebilir. Sonuncu indexi ararsa falan filan.
Mantıken aramasına gerek yok. Çünkü diğer verileri incelemeden hızlı bir şekilde ekleyecek. Hem ararsa zaten bazı şeyleri ayrı bir yere kaydediyor. Bu da optimizasyon sağlıyor.
 
Yani çok değişken var ortada. Eğer ekleme işlemi için primary key olmayan bir tabloya ekleme yapıyorsan sorun olacağını sanmıyorum. Ancak primary key kullanılan bir tabloysa çakışmaları falan kontrol edeceği için yavaşlar. Tek bir vt'de 1m veri tutmak yerine farklı tablolara ve vtlere bölmek daha mantıklı.

Veri aramak içinse kullandığın algoritma aşırı önemli. Basit iterativ bir algoritmayla çok uzun sürer, tabii ki disk hızı ve işlemci gücüne bağlı ama olabildiğince parçalara bölmek isteyeceksin verinin incelenmesini. Algoritma burada devreye giriyor.
 
Mantıken aramasına gerek yok. Çünkü diğer verileri incelemeden hızlı bir şekilde ekleyecek. Hem ararsa zaten bazı şeyleri ayrı bir yere kaydediyor. Bu da optimizasyon sağlıyor.
Gelişmiş özellikleri varsa olur tabi. Sen de yapabilirsin bu özellikler belki.
 
1 milyon row MySQL icin hicbir sey :) Birkac GB'lik RAM olan bir makinada bile 10 milyonlarca row olan tablolarda cok rahat calisir. Sadece schema yapini duzgun kurgulaman lazim. Normalization ve indexing cok onemli. Yoksa veriyi cekerken catlarsin.
 

Technopat Haberler

Geri
Yukarı