Egy apró Reactoros kérdés, vajon miért van az, hogy egy elvileg megfelelően, precízen lemodellezett környezetben teljesen meghal? :) Dolgozok egy képen, melyben temérdek láncot kellene meganimálnom, nem is a mennyiséggel lenne a probléma, csupán azzal, hogy a jelenet pontról pontra valós méretezésben készült el, a láncszemeknek ennekmegfelelő értékekkel, proxy objectekkel, hogy gyorsabb legyen a számolás, (azok nélkül si behal) stb... azonban ha, akár csak 2(kettő!!) db láncszemre is ráeresztem a szimulációt, a prociterhelés felugrik 99%-ra, és a rendszer használhatatlanság szélére sodródva várja a resetet.
Valaki tapasztalt már hasonlót?!
Más láncszemmel működik, ezekkel a láncszemekkel semmiylen más környezetben nem megy, de nem akarnék megint 3000 láncszemet egyenként lerakni.