Komolytalan#28
Nem értesz te semmit, mert buta vagy mint a tök. Hogy optimalizálsz pl futási sebességre egy PL/SQL programot, amikor A lehetőség 100K x bonyi lekérdezés, B lehetőség meg 10M x egyszerűbb lekérdezés? Megnézem 100x kisebb adatbázison, hogy lefusson mondjuk egy szimpla, lokál tesztszerveren mielőtt összeomlik a naprendszer? Hogy lesz kisebb, de konzisztens az adatbázis, ha mondjuk 1000 táblából áll, táblánként 10K-100M rekorddal? Ez mennyi időt vesz igénybe (ami helyett lehetne értelmes munkát végezni)?
Én inkább távolról lefuttatom a valós környezetben, egy teszt sémában, amely inputnak a valós adatbázis tábláit használja - vállalva azt, hogy ha nincs net, akkor nem tudok dolgozni. Egyszerűen azért, mert így ténylegesen látszik hogy A vagy B irány a jobb.
Persze akinek úgy indul a projectje, hogy createdb, és max 3 tesztadatot rak minden táblába a teszthez, az ezt nem értheti, mivel az általában szarik rája hogy az optimális-e a végeredmény vagy sem (addigra már ki van fizetve, mire kiderül hogy egy kontár).