50
  • Frelin
    #50
    Kedves Blue!

    Nagyon szeretnék veled privátban beszélni, légyszí keress meg, mert privátot nem tudok neked írni.
    [email protected]
    Köszönöm
  • Macc
    #49
    Bizom benne:)
  • fflx
    #48
    elso release :)
    majd a kovetkezok egyre jobbak lesznek
  • Caro
    #47
    1)akkor jó tudni, hogy az informatikában megmaradt az értelem. Mert az sok egyéb területről kihalt sajnos...
    2)persze, tudom, hogy nyilvánvalóan egy team többre képes, mint egy magányos programozó, csak azt írtam, hogy nem fordítottan arányos a programozók száma az elkészítéshez szükséges idővel.
  • BlackRose
    #46
    na most kérlek, halgass meg

    volt alkalmak 6-8 tagú fejlesztői csapatot irányitani (direkt manager) és 60 fős csapatot - fejlesztők, administrátorok, teszt részleg stb. (indirekt manager - a managereket irányítottam (6-an voltak)), CMMI tapasztalatokkal rendelkezem és sok évet töltöttem el a szoftveriparban, úgyhogy nagyon is tudom, hogy lehet e vagy sem irányitani egy pár embert, persze most nekem is inkább elméleti tudásom van egy párszáz vagy párezer ember irányításával kapcsolatban, de ha ezt mind felosztjuk reális kis csapatokra (max 10 ember) akkor nem nagyobb fáradság kell hozzá. Több ember nagyon is tud kooperálni ha egy pár alap dolgot betartunk, ebbül a legfontossabb, hogy a project adott része a tulajdonukat képezze (owner) és akkor telyes felelőség van rajtuk az adott dologért, ők döntenek arról, hogy kinek a segítségét kérik és fogadják és, hogy mi módon oldják meg az adott problémát. Ezt különben a Microsoft nagyon is így csinálja, többek között erről olvashatsz Bill Gates könyveiben, vagy esetleg elbeszélhetsz néhány MS programózóval (én egy ex MS fickóval Joel Spolskyval szoktam dumálni a softwer projectek tudámányáról), fontos, hogy a döntések nem a legmagasabb, hanem a legalacsonyabb szinten szülessenek (tudom, hogy ez fejre fordítja a világot, de azok akik írják a dolgokat azok értenek hozzá a legjobban, nem pedig a főnök), ez akkor érhető el, ha mindenki tulajdonosa a saját munkájának. 3 hónaponként komoly felméréseket szoktunk csinálni, de álltalában heti jelentéseket is követelünk mindenkitől, csak csupán azért, hogy a problémákat minnél hamarább felderítsük. A legfontosabb dolog, hogy mindenki őszinte legyen a munkájában és ha valaki teljes felelőséggel kell számoljon akkor hidd el, hogy őszinte is. Minden csapat törekszik a tökéletes felé, de mivel ez lehetetlen akkor inkább arra kell koncentrálni, hogy időben előre tudjuk látni a hiányosságokat a problémákat és időben tudjunk reagálni rájuk. Na de ez most már nagyon off topic, a software project management egy külön tudomány és éppen azért nagy ezen a téren a baj mert sokan rosszul csinálják, a software iparban nincsennek főnökök, a főnök a gép és a fejlesztői rendszer, és ha valaki főnökösködni akar akkor előbb vagy utobb elesik. Ja és egy átlagos MS programozó heti néhány száz sor kódot írt, még néhány ezret generál... de az átlagos MS programozó nem is annyira kódolással tölti el az idejét, hanem bugjavításokkal... persze ezen nevetni fog az aki nem szokott kódolni (az elméleti programozók) de nagyon is érti miről van szó az aki kódol. Egy átlagos MS programozó heti 50 órát dolgozik (amikor közeledik a shipping date akkor néha 60-80 at is) és nem hiszem, hogy azért szórakozásból vannak a munkahelyükön, 3-5 sor meg aztán még szórakozásnak is ici pici nem gondolod. Pl. az SQL Server csoport 850 emberből áll, néhány ezer gép (multi CPU blade sok giga RAM meg van terra RAM-os is, napi 24 órán át nyomja a teszteket (néhányszázezer tesztet), automatikus bugfelfedezés, megterhetés tesztek, memory leak tesztek, hardware és software kompatibilitás tesztek stb...) és mindez nagyon is irányítva van, ezenkívűl a csoport együtt kell, hogy működjön a Windows csoportal, a Visual Studio csoportal, az Exchange csoportal stb. meg persze egy csomó cégen kivüli tényezővel (XML interoperability, 3rd party developer tools stb...), mindemellett egy komoly marketing és egy komoyl enterprise consulting csoportal is nagyon össze kell legyen kötve, és ne felejtsük el, hogy mindez egy olyan környezetben ahol pl. egy IBM a DB2-vel meg az Oracle is iszonyatossan komoly konkurencia, tehát nem lehet lassan sétikálni, hanem nagyon komolyan kell dolgozni. Tévedsz, amikor azt hiszed, hogy egy programozó tobbre képes (nagyon pici projecteken valamennyire), de akármilyen project ami párszáz óránál több munkát és több specifikus technológiát is igényel egy programozó sokszorossan lemarad még egy relatív gyenge csoportól is akármennyire is jó programozó.
  • Caro
    #45
    Namost
    1)erre szokta azt mondani az infó tanárom, hogy az informatika egy mérnöki tudomány. Mert nincsenek korlátlan erőforrásaink. De ugyanakkor elméleti is. Mert ha be lehet bizonyítani(márpedig be lehet) hogy egy algoritmus adott körülmények között a leghatékonyabb, akkor tök mindegy milyen hardveren van, annál jobbat úgyse hoznak ki belőle.
    2)mivel egy ilyen program nem alacsony szinten, hanem az operációs rendszer által kezeli a filerendszert, ezért tök mindegy mi van alatta, neki akár ext3-as is lehetne, bár ezzel gondolom tisztában vagy.
    3)nem azt írtam, hogy mindent meg tudok oldani, hanem hogy mindent meg tudnék oldani, ha érdekelne, és beleásnám magam, és nem sajnálnám az időt rá. Egyedül persze sokáig tartana, de meg tudnám csinálni.
    4)30-40 embert már nem lehet jól kooperálni. Kettőt sem lehet. Persze, jó, hogy top-down elv szerint felosztják a feladatot, de csak egy ember tudja egészben látni a problémát. Úgy nagyon sokáig tartana a fejlesztés, de nem 30x, hanem kb. csak 10x annyi ideig. Hiába beszélik meg a dolgot, minden egyes gondolatot nem tudnak közölni egymással.
    És szerinted a programozók mekkora erőbedobással dolgoznak? Főleg a microsoftnál, ahol a programozók többsége alkalmi munkás(szezonálisnak vannak bejelentve)? 30-40000 embert nem lehet úgy felügyelni, hogy mindenki rendesen dolgozik-e? Ha jól emlékszem egy átlagos microsoft programozó heti 3-5 sort ír.
    Ellenben egy egyéni, vagy egy kisebb fejlesztőcsapat, akik maguknak csinálják, sokkal hatékonyabban dolgoznak.
    Vagy a GPL-esek, akik nem a profitért csinálják, csak hobbiból, szórakozásból. És emellett rengetegen vannak. Azért ez is számít!
  • droland
    #44
    "Én ki sem próbálom, mert szerintem sz*r, mert MS"... válasz: a linux is sz*r szerintem bár még azt sem próbáltam ki...

    !IQ!
  • Macc
    #43
    Na 10 perccel kesobb mar eltunt, megnyugodtam. De nagyon sok kivanni valot hagy maga utan ez az egesz. Nem csodalom, hogy nem latjatok sok ertelmet egy ilyen keresonek...
  • Macc
    #42
    Vajon ujra kell indexelnem az egesz vinyot, hogy rajojjon vegre hogy ilyen file nincs is?
  • Macc
    #41
    Hat, most vegre sikerult letesztelnem. Tenyleg gyorsan keres, ezzel nincsen baj, de azert nagysagrenddel nehezkesebb a hasznalata mint a Spotlight-nak sajnos. Peldaul, egy megtalalt elemet ki akartam dobni. A kereso eredmenylistajarol ez nem volt lehetseges, sebaj, megmutatta hol van, kidobtam onnan. De tovabbra is ott maradt a listaban. Majd raboktem az elemre (gondolvan, akkor csak eszreveszi, hogy ilyen mar nincs, de nem, csak annyit nyogott be, hogy "unable to display item"...)

    Kozben megegyszer rakerestem, es megint kidobta a mar nem letezo elemet mint talalatot: ehhez csak gratulalni tudok!!!
  • BlackRose
    #40
    OK, rendben de továbbra sem értünk egyet, mert a programok végülis hardwaren futnak és ezért igen is fontos, hogy egy algoritmust a meglévő hardware fügvényében vizsgáljunk (pl. maga az NT kernel egynéhány gondja - mondjuk rá memória kezelés stb. abból ered, hogy amikor az NT kernelt megtervezték sokhelyt az akkori hardware miatt "kereskedni" kellett a dolgokkal, (tudod ezt most jóintulatúan írom de fényévi különbségek vannak az elméleti és a valódi programozás között, elméletben mindent leirok és piszokul működik, viszont a valóságban olyan dolgokba ütközik az ember amit nem a legegyszerübb megoldani (ez speciál vonatkozik az algoritmusok teljesítményére)) és akkor alkalmazkodni kell a helyzethez, kivéve ha elementáris algoritmusokról van szó amit az Informatika Alapjai vagy hasonló nevű iskolaórán oktatnak. Az NTFS ismerésének előnyét pedig még véletlenül sem a hardware szintjén értettem, mert ennek egyy NT féle OS-ben nem sok köze lenne a logikához, de viszont maga a filerendszer szervezése és kezelő rutinjainak ismeretsége igenis meggyorsíthatják a dolgokat... na de mindegy, ajánlok egy két könyvet az NTFS-ről és majd akkor meglátod miről beszélek.

    Ha azt hiszed, hogy a programózást olyan szintig vitted, hogy mindent megtudsz oldani akkor, csak, hogy esetleg újból meglegyen a kedved ajánlom Donald Knuth - The Art of Computer Programming című könyvét. Itt az élő Stanfordi legenda egy egéssz kb. 1000 oldalas kötetet szentelt a Searching and Sorting néven ismert problematikának, és ezt valszeg azért tette mert egy [email protected] gyerek Pityuka nevű programozó egy hónap allatt összedobja azt amire az MS-nek 30-40 hülyegyerekre van szüksége. Na most OK még ha ezt elfogadom is, akkor felmerül a kérdés, hogy ha már olyan piszokul egyszerű, akkor miért nem irta meg valaki más, a Google hasonló alkalmazása gyengébb és azt is pár tucat Ph.D. matematikus meg programozó irja... na várom a választ.
  • Caro
    #39
    khm.
    kicsit félreértettél. Azért írtam, hogy nem vagyok nagy programozó, mert nem érdekel, mert odáig jutottam benne, hogy már nem volt előttem megoldhatatlan feladat. Csak az időt sajnáltam rá. Ezért inkább áttértem a fizikára, a programozás meg maradt hobbi szinten. Addig érdekes volt, amíg kiismertem, de most már nem. Arról meg nem tehetek, hogy a microsoftnak 30-40 emberre van szüksége ahhoz, amit egy rendes programozó egy hónap alatt teljesen korrektül osszedob, úgy, hogy még optimalizálja is. A tartalom szerinti keresés sem nagy cucc, csak ismerni kell a file-ok szerkezetét. Az NTFS-nek meg ehhez semmi köze, a filerendszert nem hardverszinten kezelik az ilyen programok.
    Az algoritmusokat pedig szintén nem hardverszinten kell vizsgálni, azok matematikailag leírhatók, és semmi közük ahhoz, hogy milyen hardveren futnak. Maga az algoritmus hatékonysága bizonyítható.
  • BiroAndras
    #38
    Én is azt mondom, hogy ha egy vinyón rend van, akkor nincs szükség ilyen progira. Nekem csak nagyon ritkán kell keresnem, akkor meg kibírom azt az 1-2 percet, amíg a Total Commander végignyálazza a vinyókat.
    Egyébként biztos hasznos lehet, ha valakinek tényleg sűrűn kell keresnie. Vagy esetleg nekiállhat rendet rakni...
  • Macc
    #37
    egy szo mint szaz, vegre lehet majd keresni winben is, mert ami eddig volt az nagyon gyatra volt...
  • BlackRose
    #36
    "Informatikában az algoritmusok hatékonyságmaximuma matematikailag bizonyítható"... hát persze, csak még nem találták fel azt a metematikát, főleg ha beszállnak a cache, a threadek meg a multicore... meg még egynéhány dolog, akkor persze ide jöhet a runtime sajátossága meg stb... na hadjuk a lényeget magad is elmondtad "nem vagyok nagy programozó"... persze Delphiben fél óra allatt ősszerakod azt amit a Microsoft 30-40 hülyegyerek programozója megtett az NTFS telyes ismeretsége végtelen teszt és még végtelenebb betatesztelés után, na ez persze mindent elmodt arról, hogy mennyire nem vagy nagy programozó. Persze ezt ne sértésként értsd, mert nincs semmi kifogásom ellened és ezt nem is neked írom személyessen, csak sokszor felfordul a gyomrom amikor ilyeneket olvasok olyan emberektől (és ezt sem vedd személyessen) akik párszáz sor kódnál sohasem láttak többet, és akik némi peremszintű programozói tudással rendelkeznek amit az iskolában/egyetemen tanultak olyanoktól akik szintén életükbe nem írtak kódot... NA BOCSÁNAT NEM SÉRTEGETŐZNI AKARTAM, csak csupán kiborultam.
  • FTeR
    #35
    ilyenkor mindig az jut eszembe, hogy "és akkor mi van".
    Tekintve, hogy a világ nem használ beos-t, így a vílágot nem érdekli. Sőt engem személy szerint nem boldogít a tudat, h azon alapból van ilyen.
  • fflx
    #34
    a 400 M profil altalaban ha te nem hasznalod, akkor 90%-ban az internet cache. Asszem minden bongeszoben van egy olyan opcio, hogy clear internet cache (vagy valami ilyesmi)
    es ott be is allithatod, hogy mennyit hasznalhat (alapbol asszem a winyo 5 v. 10%-a)
  • fflx
    #33
    nem nagy a cucc. hat igen a tartalom szerinti kereses a lenyege... mar a dos-os NC-ben is volt dir cache fajl, hogy gyorsabban megtalalja a keresett fajlokat fajlnev szerint.
  • fflx
    #32
    szertintem, folosleges az egesz winyot indexeltetni. bar nem tudom pontosan hogy mukodik, de ha online frissiti az indexet, akkor pl az internet cache meg a windows konyvtar meg a program files konyvtar biztos nem tartalmaz hasznas adatokat es csak lassitjak a gepet (foleg a cache) a folytonos cachelessel. (de szivesen vennek egy leirast a mukodeserol, valami attekintot)
  • Caro
    #31
    Nagy cucc?
    Ilyet majdnem én is írok delphiben. Legfeljebb a tartalom szerinti keresés marad ki. Pedig nem vagyok nagy programozó.
    Az viszont tévedés, hogy semmi nem lehet tökéletes. Informatikában az algoritmusok hatékonyságmaximuma matematikailag bizonyítható. Csak jó sok idő a levezetés.
    De arra meg tényleg kíváncsi lennék, hogy mit keres a gépemen félmillió file. Biztos nem én raktam fel őket. Ebből van max. 2500 amiről tudom mi, a maradék csak kuka(értsd: oprendszer,progik). A felhasználói profilom is 400 M! Valami nagyon nem jó ezzel a windózzal..
  • BlackRose
    #30
    Nem tudom, de nállam 30 perc alatt 44.300 file-t indexelt (na jó RAID rendszer) az aláírásomban szereplő gépen Windows Server 2003 allatt. Persze ez messze van a gépemen levő 1.2 millió file-on de ezt megtette fél nap allatt. És aztán nincs semmi probléma, különben is itt nem az indexelési sebesség a fontos, hanem a keresési sebesség és lehetőségek, vagyis a Usability, vagyis segít e ez nekünk a mindennapi munkában vagy sem. Most nállam tényleg rend van a rendszeren és mindnek meg van a helye, de sokszor valami régebbi dologra elköltök akár pár percet is, hogy megtaláljam, na most ez az MS Desktop Searchal másotpercekbe tellik, tehát nekem van értéke, ha még beszámolom, hogy ingyenes akkor meg még jobban.
  • Macc
    #29
    Igazad van, lehet volt az haromnegyed ora is, de tenyleg beindexelt mindent amit lehetett, es ki is dobja a talalatokat azonnal.
  • Macc
    #28
    Kivancsi leszek a keresesre. Igy egy ujabb ora elteltevel leallitottam, mert lassan vegzek es megyek haza, de 40e File-ig jutott.

    Tapasztaltabbak: kepes arra, hogy uj file letrehozasakor (ami megfelel a keresesi kriteriumoknak) automatikusan updat-eli a talalatok listajat?
  • fflx
    #27
    talan annyit erdemes elmondani rola, hogy feltelepites utan egybol engedi a hasznalatot, de a local helyeken valo kereseshez eloszoris erdemes megadni azokat a konyvtarakat amikben szeretnenk gyorsan keresni, majd vagy otthagyjuk magara egy ideig, vagy megkerjuk, hogy most azonnal kezdjen indexelni. Az indexeles sebessege meg olyan amilyen, de nem hiszem, hogy 571e filet fel ora alatt azonban barmi is beindexel, ha NEM CSAK a filenvet kell indexelni, hanem a BELSO tartalmat is es legyen az word, excel outlook level, csatolmany akarmi. Kiterjesztesekkel (plugin) kepes PDF-ek ZIPek miegymas indexelesere is. Az indexelt dolgokon aztan mar villamgyorsan keres. (ahogy gepeljuk befele ugy dobalja az eredmenyeket) Igaz talatam mar egy ket erdekesseget, amit nem ertettem miert nem talalt meg, de osszesegeben nagyon hasznos a localis dolgok megtalalasara. WEBre nem hasznalom mert allandoan az explorerhez ragaszkodik...

    Hat ennyi. Szoval nem kell elsore megilyedni, ha meg nem vartunk legalabb 5-10 perc winyokerregest, akkor nem kell csodalkozni a 0 talalatokon.
  • Macc
    #26
    Hat ha valakinek eszebe jut, hogy az iroasztalan keres a kupiban egy MS termek, akkor... khm
  • Macc
    #25
    Hat 30 perc alatt 5000 file-t indexelt... Jo gyors (OSX ennyi ido alatt bedaralta az 571e file-omat)
  • Cat #24
    "a hiba az Ön agyában van"
  • atlagember
    #23
    Már megint egy félreérthető cím: Elkészült a Microsoft asztali keresője. Ezzel ugyan semmit nem találna meg az én íróasztalomon a sok papír számítógép, meg írószer közt.
  • longobard
    #22
    Én nem is tudom telepíteni, mert azt írja ki, hogy "a setup.exe fájl hiányzó exporthoz van csatolva ADVAPI32.dll:ConvertStringSecurityDescriptorToSecurityDescriptorA."
  • Razgon
    #21
    Mármint a Windowst..
  • Razgon
    #20
    Kellemesen undorító az a tulajdonsága, hogy leszedés után újra kell indítani... Suxx
  • Razgon
    #19
    Nekem nem működik nem, bármivel próbálkoztam, 0 találat...

  • pemga
    #18
    Örülök, hogy végig elolvastad :). A BeOS-ben filesystem-szintű PROPERTY-alapú indexelést vezettek be. Ez egy ötvözet, a sima filenév és a tartalom-alapú indexelés között. Alacsony-szinten van, baromi gyors (és folyamatosan up-to-date), csak azt a tartalmat indexeli, amit te megadsz neki, de ez bármi lehet. És ők végre a file-okat nem kiterjesztés, hanem content-type alapján azonosították, web-en kívül nem láttam még ilyenre példát, pedig már nagyon itt lenne az ideje...
  • BlackRose
    #17
    "hogy jelenleg a konkurens desktop termékektől jobb", hogy tévedés ne legyen itt a Desktop Search programokra gondoltam...
  • BlackRose
    #16
    Na azért egy picit rossz lenne ha az indexelést az MS találta volna ki, de a BeOS-nak sincs semmi köze hozzá, az indexelés még a 100-200 éves lexikonokban jelen volt, most csak az a kérdés, hogy milyen széles szinten alkalmazták, most egy ilyen rendszeren nem a legtermészetessebb, de majd idővel fejlődni fog. Marhaság valami terméket olyan szemmel nézni, hogy tökéletes e vagy sem, mert tökéletes termék nincs, és nem is lesz, viszont ha segitségünkre jár akkor már jó, jobb mint ha nincs, persze lehet filozófálni meg állmodozni, hogy milyen lenne ha még x,y,z-t is tudna, vagy ha tükéletes lenne, de ez nincs, viszont tény, hogy jelenleg a konkurens desktop termékektől jobb, gyorsabb, és fényévekkel szebb is ezért esetleg kényelmesebb a használata. Persze aki nem így gondolja az is rendben van, de ha valaki [email protected] még mielőtt kipróbélná az már nincs rendjén.

    Zorbie: előbb meg kell várd, hogy indexelje a vinyót (legjobb ha elmész aludni és bekapcsolva hagyod a gépet), reggelre minden OK és villámgyorsan talál meg mindent
  • Zorbie
    #15
    Télleg jó gyors, mivel 1böl kiirja, hogy semmit sem talált
  • pemga
    #14
    Csak két apróság: indexelt filerendszerek régóta léteznek. Mire is jó ez: név alapján keresel valamit => egyből megtalálja, nem tekeri végig az összes könyvtárat. Ez tehát az alap, a BeOS rátett még egy lapáttal: property-k alapján lehetett indexelni (tehát nemcsak filenév, hanem bármilyen tulajdonság alapján, pl. id3 tag, levél feladója, bármi.) Mindezt filesystem szinten (értsd: alacsony szinten, optimalizáltan). Ehhez képest ez egy utólagos ráépítés. Csak nehogy valaki úgy gondolja, ilyen nincs már évek óta, és az MS valami egetrengetően újat talált ki :).
  • BlackRose
    #13
    Mielőtt itt minden félét összeirnánk, inkább próbáljátok ki. Alapjából Desktop Search és nem toolbar, persze toolbar is lehet, de ki lehet kapcsolni, viszont maga az indexelése és a disken való keresése kiválló, pillanatok allatt megtalálható minden (persze ez még csak első benyomás). Különben érdekes, hogy sokan egy ilyen tulajdonságokkal elöntött alkalmazást igy eldobnak még mielött kipróbálnák. Persze nem kötelező használni, de azért minek a fikázás, és kétlem, hogy fél nap allatt megtudnátok mondani, hogy jó e vagy nem, legalább egy pár napos használat kell, hozzá, és aztán ha segit akkor OK, ha nem akkor meg a szamétbe vele, de így most itt fikázni, csupán csak azért mert Microsoft... na tényleg erétt gondolkodás és cselekvés!
  • SoDI---
    #12
    Én ezt a remek cuccot már nagyon korai béta állapota óta használom, és el kell, hogy mondjam, hogy ezerszer jobb, mint a google hasonló megoldása.
    Nem kell hosszú perceket keresgélni, ha valamit nem találok. Simán rákeresek, és egy másodperc múéva már megvan. Legyen az file, file-ból egy szöveg, egy e-mail üzenet, vagy akár annak egy melléklete.
    ISTENI!
  • 12346
    #11
    ezeket kinek találják ki? rühellem a toolbar-okat. sztem haszontalanok.