Windows 7: Kernel besser gegen Angriffe geschützt

Windows 7 Microsoft hat das neue Windows 7 mit einer Funktion ausgerüstet, die Angreifern die Ausnutzung von tief im System versteckten Schwachstellen deutlich erschwert. Der Ansatz verhindert die erfolgreiche Ausfühung von Attacken mit Hilfe so genannter ... mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Ihr zwei Kollegen über mir.. baut bitte erstmal selber einen Kernel.. mal sehen wie sicher der ist..
 
@ChuckNorris050285: Da sind [o1] und [o2] wohl einem Pool-Überlauf zum Opfer gefallen :)
 
@WaftOfSoul: irgendwie schon :)
 
@ChuckNorris050285: Jops!__________ Nice to hear, hört sich gut an, hoffen wir mal dass es keine anderen Nachteile hat. Dann ists doch ein schöner Schritt.
 
"Kernel besser gegen Angriffe geschützt" - wurde bei jeder Version seit XP gesagt, waren aber immer nur Teilverbesserungen, bei XP bezog sich das zunächst nur auf Hardware-Treiber. Der Kernel-Schutz wurde auch von Version zu Version besser, ich denke, daß schon Vista da deutlich mehr Sicherheit zu bieten hatte als seine Vorgänger. Wie weitgehend der Schutz jetzt ab Windows 7 bzw. Windows 2008 R2 WIRKLICH ist, werden die nächsten Monate zeigen. Schön wär's ja. Ist aber natürlich auch wieder größerer Ansporn für die bösen Buben. Abwarten und Tee trinken und bis dahin nicht jeden Mist doppelklicken, der einem unter den Mauszeiger kommt.
 
@departure: Das wird wie immer ablaufen, die präsentieren theoretische und umständliche Angriffe auf ihren Konferenzen die in der Praxis aber nie ankommen.
 
@departure: Wenn ein Kernel besser gegen Angriffe geschützt werden soll und eine Teilverbesserung erreicht wurde, dann ist doch das Versprechen erfüllt, oder nicht?
 
@DennisMoore: Ja, durchaus.
 
@departure: was WinNT-Edition für WinNT-Edition auch gemacht wird :-) klar... die NT-Technik kann man mittlerweile auch als "Neandertal-Technologie" interpretieren da (bis Vista zumindest) noch Fehler vorhanden sind/waren die seit NT4.0 existieren.
 
@Stefan_der_held: Sag' ich doch, wurde jedesmal seit W2K etwas besser, und nun Windows 7 als vorläufigen Höhepunkt im besten Sinne - sehr gerne. Nur beweisen muß es sich noch.
 
@departure: "bis dahin nicht jeden Mist doppelklicken, der einem unter den Mauszeiger kommt." schön ausgedrückt! ^^ ich fühlte mich geschützt durch avast pro auf vista, neulich wurde mir nocheinmal bewusst, welch illusion dieses sicherheitsgefühl war. hab mist doppelgeklickt... avast hat mir grade noch eine MAYDAY CAPTAIN WIE SAUFEN AB! meldung ausgegeben, der wurm/virus was-auch-immer hat das gesamte system dermaßen kompromittiert... naja und so weiter... schützen kann nur die brain.exe, die hatte an dem tag wohl einen autostart fehler.
 
denke die beste sicherheitslösung wäre endlich der neue kernel der mit win 8 kommen soll.
 
@urbanskater: Ist der ewige Wettlauf. Dauert nicht lange, dann hat man Mittel und Wege gefunden, die Sicherheitsmechanismen auszuhebeln. Win 9 ist sicherer wie Win 8, Win 10...9......wenns danach geht wartest ewig und hast nie ein BS.
 
@urbanskater: Denke Kernelattacken sind in der Realität so ziemlich die unwahrscheinlichste Angriffsvariante von allen.
 
@urbanskater: dann hast du nur die Hürde, dass die Virenautoren sich erstmal einarbeiten müssen. Danach geht alles wieder von vorne los
 
Ich find den Artikel an einigen Stellen ziemlich ungünstig formuliert: "die Angreifern die Ausnutzung von tief im System versteckten Schwachstellen deutlich erschwert." <- Weder Microsoft, noch der Osterhase werden Schwachstellen im System verstecken. "Microsoft sich will durch den Einbau von Schutzmaßnahmen" <- Macht hier eigtl. noch jemand Probelesen?
 
@raketenhund: Naja laut Verschwörungstheoretikern gibt es etliche Lücken in Windows, wohlgemerkt absichtliche. Und das halte ich gar nicht mal für so unwahrscheinlich, ich erinnere mal daran wie NSA eine Ausschreibung über zig Millionen gemacht hatte, damit jemand die Verschlüsselung von Skype knackt. Warum also nicht auch bei Windows ein Backdoor anmelden? Ist nur eine Überlegung.
 
@max.: Das kann ich mir nicht vorstellen, dass es absichtliche Lücken und eine Backdoor in Windows geben soll. Man stelle sich vor es existiert eine Backdoor und diese wird von jemandem entdeckt, dann wird es richtig interessant. Das Beste was der "Entdecker" machen könnte, ist diese Backdoor sofort zu beschreiben und das zu veröffentlichen. Man stelle sich aber vor der "verkauft" sein Backdoorwissen an "Interessenten" und diese nutzen diese Information für Ihre Zwecke. Dann hat M$ aber ein richtiges Problem so in Richtung nationale Sicherheit usw.
 
@drhook: Das wäre ein eher ungute Situation, da stimme ich dir zu. Aber warum finden sonstige Leute, deren "Beruf" es ist Spyware, Viren und sonstige Schädlinge in die Welt zu setzten dann ständig Lücken? Hat MS keine Spezialisten, welche das schneller finden? Es kommt mir manchmal schon komisch vor.. hab die News leider nicht mehr gefunden , aber nach dem Release des Internet Explorer 7 wurde keine halbe Stunde(!) später bereits die erste Lücke gefunden, da frag ich mich echt, was MS da verbockt hat und ob das wirklich ein Versehen war, oder vielleicht doch ein absichtliches Loch?
 
@max.: Ich glaube das diese Lücken die man da bei M$ findet, nicht absichtlich "verbockt" wurden. Das ist wahrscheinlich "menschliches Versagen" bei einigen der vielen Programmierer dort. Wie das halt so geht, der Teamleiter setzt eine Deadline, die Leute programmieren bis tief in die Nacht und dann passieren halt Fehler. Diese Leute die Viren usw. in die Welt setzen, wissen genau wo sie ansetzen müssen. Mit dem IDA Disassember kann man zum Beispiel den Code sehr gut "untersuchen" und mit etwas Zeit und Überlegungen auf X86-Codeebene, lässt sich da schnell etwas manipulieren.
 
Mein Pool ist noch nie übergelaufen. *tätä, tätä* :-/
 
@Ment0s: der war jetzt so blöd das ich lachen musste XD
 
@Ment0s: wo wohnst du, ich bringe grillfleisch und er Pac-Man was zu trinken mit. dann gibts ne nette gartenparty.
 
@Ment0s: Dann füll deinen Pool mal mit Kohlensäure-Wasser, da wird er garantiert ordentlich überlaufen :-).
 
@Ment0s:
Komme auch zur Garten Party dann bringen wir auch deinen Pool zum überlaufen :D
 
Alle Schutzmaßnahmen, die von Menschen erdacht und gemacht werden, können auch von Menschen wieder ausgehebelt und umgangen werden. Das Hase- und Igel-Spiel wird nie aufhören. Und wenn es mal irgendwann Quantentechnologie gibt, werden Maschinen konstruiert, die das wieder aushebeln können. Es wird niemals 100%ige Sicherheit geben. Dann schon mehr Brain 1.0. Von mir aus auch 2.0 :-). Oh, Bosä Bär war schneller :-)
 
Patch, Patch, Patch,.... und doch keine Sicherheit. Den Windowskernel könnte man mit einer kleinen Landstraße aus den 50ern vergleichen, über die ständig 40-Tonner fahren. Diese Landstraße ist für solchen Verkehr nicht ausgelegt und bricht nach und nach zusammen, überall Schlaglöcher, die nur behelfsmäßig repariert werden. Irgendwann besteht diese Straße nur noch aus ausgebesserten Schlaglöchern, was die Straße nur noch eingeschränkt passierbar macht. Wenn Microsoft weiter so am alten NT4 Kernel erumfrickelt, wird dieser irgendwann zusammenbrechen, denn der NT4 Kernel ist von der Architektur NICHT für die Sicherheitsprobleme von heute ausgelegt. Das kann man auch nich mit Patches korrigieren.
 
@kfedder: Oh, da kennt einer den Quellcode von Windows aber sehr gut und kann genau sagen, wieviel vom alten NT4-Kernel noch übrig ist. Respekt!
 
@kfedder: Weiß ja nicht, warum Du immer so schlecht drauf bist. Kannst Du auch was anderes außer motzen? Bin nicht sicher, ob Du überhaupt ein Windowsbenutzer bist, ich vermute eher nicht. Kann es in diesem Fall sein, daß dieser von Dir so verhaßte Windows-NT-Kern, der ja sooo schlaglöchrig, altmodisch, schlecht und was weiß ich nicht alles ist, DICH ÄRGERT, WEIL ES DER MITHIN ERFOLGREICHSTE BETRIEBSSYSTEMKERN ALLER ZEITEN IST?
 
@kfedder: Der NT 6.1 Kernel ist zwar aktuell aber egal. Sagen wir mal, es ist eine alte Landstrasse, die aber schon 2 mal neu gebaut wurde...der Boden(Erde) blieb gleich. Nach jeder Erneuerung kam eine Verbesserung der Technologyen hinzu(x.1, x.2 usw.) sowie auch neue Sicherheitskonzepte...wenn dies Linux oder Darwin nicht so machen würden...und Darwin ist da auch Hinten nach...gäbe es die darauf basierenden Betriebsysteme nicht...
 
@Tiku, @departure und @Bluefisch200: Als Softwareentwickler muss man sich zwangsläufig mit dem Kernel und dessen Sicherheitsmechanismen auseinander setzen. Der Kernel von Windows 7, also die Version 6.1 ist nichts anderes, als ein massiv gepatchter NT4.0 Kernel. Dieser Kernel ist vom Konzept überhaut nicht für die heutigen Aufgaben ausgelegt. Der Begriff "Microkernel" stimmt mittlerweile wirklich nicht mehr, da in den Kernel ALLES integriert wurde. Auch Dinge, dort nicht hinein gehören und dadurch ist der "Microkernel" mittlerweile völlig aufgebläht. Man muss übrigens nicht den Quellcode des Kernels kennen, um zu erkennen, das aus dem NT 4 Kernel nach den ganzen Patches in den letzten Jahren das reinste Chaos geworden ist. Man muss sich nur die System APIs in der MSDN anschauen. Dann sieht man die Konzeptlosigkeit, die bei Microsoft herrscht. [Ironie] Vielleicht legt Microsoft die Quelltexte nicht offen, aus Angst, die Leute könnten sehen, wie schlecht und fehlerhaft man bei Microsoft entwickelt.[/Ironie]
 
@kfedder: jeder Kernel ist gepatcht...etwas zu patchen bedeutet nur Fehler zu korriegieren(z.B. ne Fehlerhafte dll durch die korrekt funktionierende zu ersetzen...JEDER Kernel bekommt das, JEDER MUSS gepatcht werden. Jedes Upgrade JEDES Kernels ist ein patch...System APIs von Windows sind sehr logisch...wüsste nicht was daran auszusetzen ist...und wenn du doch schon Sachen wie: "Als Softwareentwickler muss man sich zwangsläufig mit dem Kernel und dessen Sicherheitsmechanismen auseinander setzen." verlauten darfst...NT ist kein Microkernel...was gehört denn nicht in den NT Kernel...ich erwarte eine Erklärung...Grafik? Wurde mit Vista raus genommen? Weiteres Wissen vorhanden oder wurde dies gerade aufgesaugt?
 
@kfedder: Nenn mal konkrete Beispiele für die Konzeptlosigkeit (bin selbst Softwareentwickler, kannst also ruhig mit Fachbegriffen kommen). Und nenn mal ein Mikrokernsystem, das auf dem Desktop und auf Servern produktiv eingesetzt wird (QNX im Embedded-Bereich ist mir bekannt).
 
@TiKu: Du sagst es, es gibt im Grunde genommen keine Desktop Microkernel Systeme mehr, weil das "Konzept" völlig veraltet ist. Naja, genaugenommen ist der NT Kerlen ja ein sog. Hybridkernel, denn bei der Entwicklung wollte M$ einen Monolitischen Kernel haben, ist aber daran kläglich gescheitert. Ein Hybridkernel ist eine Mischung aus Micro- und Monolitischem Kernel. Nun zur Konzeptlosigkeit. Wenn man sich windows NT 4.0 und dessen Kernel anschaut, kann man noch ein einigermaßen brauchbares Konzept erkennen. Das größte Problem dieses Kernels stellt allerdings das integrierte Grafiksystem dar, denn bei der Fertigstellung gab es nur ein paar Grafikauflösungen und keinerlei 3D Funktionen. Weiterhin gab es zwar Netzwerkfunktionen im System, allerdings waren die auch für das Internet am Anfang nicht brauchbar, weil sich Microsoft wie üblich nicht an Standardprotokolle gehalten hat. Ich erinnere z.B. an das völlig inakzeptable NetBUI Protokoll aus der win 3.x Zeit. Das größte Problem bei NT 4 war das Thema Sicherheit, welches von Microsoft immer totgeschwiegen wurde. Bei NT 4 gab es keinerlei Sicherheitskonzept, wie eine Firewall, vernünftiges und sicheres Benutzer- und Gruppenrechtemanagent,... Dies wurde erst nach und nach mit Mühe und Not in den Kernel gepatcht. Ich könnte jetzt noch weitere Dinge aufzählen, aber das würde den Rahmen sprengen. Mittlerweile musste Microsoft dinge in den Kernel patchen, an die 1996 bei der Einführung von NT4 niemand gedacht hatte. Also ging das gefrickel los. Es wurde hier etwas gepatch und da etwas gepatch, aber es wurde NIE versucht, den Kernel auf die heutigen Gegebenheiten anzupassen, was natürlich recht teuer gewesen wäre. Microsoft hat immer nur die Symptome bekämpft, aber nie nach der Ursache eines Fehlers gesucht. Es wurden teilweise Patches veröffentlicht, die auf einigen Systemen funktionierten, aber auf anderen nicht. Das ist in meinen Augen das beste Beispiel für unsinniges gefrickel. Im übrigen, der Unterschied zwischen dem Vista-Kernel 6.0 und dem Windows 7 Kernel 6.1 ist wirklich sehr gering. Es wurde intern kaum etwas verändert. Der Grund liegt auf der Hand. Den Kernel kann man mittlerweile mit einem Kartenhaus vergleichen. Eine geringfügige Änderung an der falschen Stelle, und das Kartenhaus (der Kernel) bricht zusammen. Über kurz oder lang MUSS Microsoft den gleichen Weg wie Apple mit dem MacOS X gehen. Wobei bei Apple der Umstieg von der PPC Architektur auf die Intel x86_64 Architektur ein Rückschritt war, denn diese Architektur ist völlig überholt und ist auch nur "Gefrickel" aus den 80ern. Ich habe übrigens auf einigen Prozessoren in Assembler programmiert (Intel x86, Motorola MC680x0, MOS 6502/6510, Zeilog Z80,..) und die x86 Architektur ist wirklich grausam. Ich kenne also die unteren Ebenen eines Betriebssystems. Mein Fazit: Microsoft versucht durch Verändern der GUI seine Käufer zu halten. Denn wirkliche Neuerungen in der Funktionalität hat es seit Windows XP SP2 nicht mehr gegeben. Selbst die wirklich sinnvolle 64 Bit Anpassung wird nur halbherzig gemacht. Es gibt doch kaum noch 32 CPUs im PC Bereich (Intel Atom CPUs ausgenommen). Das verstehe ich nun wirklich unter Konzeptlosigkeit. Die Technik ist da, wird aber nicht genutzt. Über 90% der Windows Benutzer fahren mit angezogener Handbremse. - Noch eine Anmerkung an die "Minus-Kiddies": Bewertet diesen Beitrag ruhig negativ. Ich weiss, er ist für euch zu hoch. Die Pisa-Studie hat ja gezeigt, wo das geistige Niveau der heutigen Jugend ist.
 
@kfedder: Dies nenn ich mal ein Kommentar. Interessant zu lesen und es zeigt, dass wir Menschen nie auslernen. Wegen der Frage zu 64Bit: Ich würde eher sagen, daß viele Leute / Firmen eben noch auf älteren (32 Bit) Systemen arbeiten. Damit wären diese Leute ja gezwungen, neue Hardware zu kaufen - würde jedoch wiederrum in die Hosen gehen "Nur wegen dem OS neue Systeme kaufen. Nicht mit mir!"
 
@kfedder: Wer auch immer diesen Kommentar gut findet...um dieses Wissen zu haben müsstest du MS intern arbeiten(machst du sicher nicht)...dieser Beitrag muss nicht von "Minus-Kiddies" negativ bewertet werden...er disqualifiziert sich selbst. Sry aber so viel Unwissen auf einer Webseite ist mir auch noch nie vor Augen gewesen...
 
@bluefisch200: Nur, weil dir die Fachkompetenz fehlt, heißt es noch lange nicht, das andere diese nicht haben können. Im Übrigen habe ich in meinem Kommentar nur Dinge geschrieben, die man überall nachlesen kann. Du hast dich selbst mit deinem Beitrag disqualifiziert. Frei nach dem Motto: Was ich nicht kenne, das kann es nicht geben.
 
@kfedder: Ich würde mich auf einen klaren Beleg dieser Anschuldigungen freuen...ich halte NT für den aktuell besten, stabilsten und klar(und das ist Fakt) sichersten Kernel auf dem Markt...
 
@kfedder: Worin unterscheidet sich der NT-Kernel da von Linux, FreeBSD, Solaris? Das sind auch alles nur Weiterentwicklungen von inzwischen sehr alten Kerneln. Und wie bei NT ist vom ursprünglichen Code nicht mehr viel übrig. Zum Thema 64 Bit: Noch so einer, der ohne Sinn und Verstand krampfhaft alles auf 64 Bit umstellen will. Programme werden dann auf 64 Bit umgestellt, wenn es triftige Gründe dafür gibt. Und nein, ein "* 64" im Taskmanager ist kein triftiger Grund. Schau dir übrigens mal an, welche Hersteller 64-Bit-Versionen ihrer Software anbieten. Dann wirst du feststellen, dass Microsoft da vorne mit dabei ist. Nenn doch mal ein wichtiges Programm von Microsoft, das nicht als 64 Bit vorliegt. Gut, Office. Aber das hat sich mit Office 2010 auch erledigt. Übrigens ist der Intel Core (ohne 2) nicht 64-Bit-fähig und auch ein Pentium 4 dürfte noch in so manchem Haushalt und so mancher Firma stehen. Zum Thema Grafik im Kernel: Dem Anwender ist es egal wie etwas implementiert ist, ihn interessieren nur Funktionalität und Geschwindigkeit. Und als die Entscheidung getroffen wurde, die Grafik in den Kernel zu verlagern, war das nunmal die schnellere Variante. Last but not least ignorierst du das Thema Abwärtskompatibilität - das was IMHO maßgeblich den Erfolg von Windows ausmacht.
 
@TiKu: 64 Bit Software.... Da gibt es unter Linux keinerlei Probleme. Grundsätzlich gibt es JEDE Linux-Software als 64 Bit Version. Ich arbeite im Übrigen schon länger sowohl mit Vista 64 Bit und mit Linux 64 Bit, sowohl im Server, als auch im Workstationbereich. Mir ist aufgefallen, das es für ältere Hardware von namhaften Herstellern schwieriger ist, Treiber für Vista 64 zu bekommen, als für die 64 Bit Linux Version. Als Beispiel kann ich da die Firma Pinnacle nennen. Gerade im Multimediabereich ist die Treiberunterstütznung für 64-Bit Vista nicht besonders. In Bezug auf Kernelpatches möchte ich dir eines sagen. Hast du schon mal einen Linux-Kernel selbst konfiguriert und kompiliert? Dann müsstest du wissen, das hinter dem Linux-Kernel-Konzept eine ganz andere Philosophie steckt. Was das GUI System im Kernel zu suchen hat, das frage ich mich noch immer. Einen Geschwindigkeitsvorteil bringt es nämlich nicht. Ganz im gegenteil. Es macht das System total träge. Dies merkt man besonders im Windows Serverbereich. Ich bevorzuge da doch eher ein X-Windows System. Dieses bietet gerade im Bereich Remote Desktop oder im Bereich Client/Server Applikationen sehr große Vorteile. Zum einen belastet X-Windows in dem Bereich das Netzwerk kaum, im Gegensatz zum Remote-Desktop System von Microsoft. Zum Anderen lassen sich durch sog. Thin-Client-Systeme, die Anwendungen auf einem Server ausführen bei Firmen enorme Kosten sparen. Dies gilt besonders für die Wartung dieser Systeme. Ich setze im Übrigen in meiner Firma bis auf 2 Windows Lizenzen keinerlei Software von Microsoft ein. Und das aus gutem Grund.
 
@kfedder: Aha, es ist also Schuld von Microsoft, wenn andere Hersteller keine 64-Bit-Treiber und -Software anbieten? "Hast du schon mal einen Linux-Kernel selbst konfiguriert und kompiliert?" Ja, habe ich. Und?
Ja, X ist klar im Vorteil, wenn die GUI übers Netzwerk geht. Aber wieviel Prozent der Nutzer brauchen das? In den allermeisten Fällen läuft die GUI auf dem gleichen System wie der Rest und da bremst der Overhead von X. Mit GUI im Kernel (übrigens ist nicht die komplette GUI im Kernel, sondern nur die Grundfunktionen) sparst du dir jede Menge Wechsel vom Userland ins Kernelland. Und das soll keinen Geschwindigkeitsvorteil bringen? *lol*
 
@TiKu: Mach doch mal einen Performencetest. X-Windows ist auf auf "localhost" schneller als die Windows GUI, egal, ob du Gnome, KDE oder sonstwas verwendest. Wenn man dann noch WINE installiert und Windows Programme unter Linux laufen läßt, dann laufen die teilweise auch schneller, als die gleichen Programme unter Windows. Ich werde über kurz oder lang alles in meiner Firma auf Linux umstellen. Windows ist einfach zu teuer. @All: Im übrigen zweifel ich die Qualifikation vieler User hier im Forum aufgrund fehlender Objektivität und fehlendem Bewußtsein zur IT-Realität doch sehr stark an. I.d.R. kommen doch die meisten Kommentare hier von Kiddies, die nichts anderes als Windows kennen.
 
@kfedder: Wie willst du die GUI-Konzepte von Linux gegen die von Windows benchen wenn da noch hunderttausend andere Dinge mit reinspielen? Keiner von uns kann letztlich belegen welches Konzept das performantere ist. Aber in der Theorie ist es das von Windows, da dort wie gesagt der IP-Overhead sowie zahlreiche Wechsel vom User- ins Kernelland wegfallen.
 
Frei nach dem Motto: Machen wir mal ein Pflaster drauf. Könnte ja helfen.
 
@kfedder
text ist gut geschrieben, doch der minus nachtrag ist überflüssig
 
Komische Diskussion die hier geführt wird. Der NT-Kern ist doch gut. 15 Jahre alt und 95% aller Computernutzer benutzen ihn. Die meisten davon problemlos auf ganz verschiedener Hardware über Jahre! Ein neuer Kern bringt neue Fehler. Wenn die Stabilität, Geschwindigkeit und Hardwarekompatibilität so wie sie ist erhalten (oder gar verbessert werden kann), brauch ich keinen neuen Kern. Er wird nicht älter, er wird besser! PCO
 
@pco: Man merkt, wie wenig du von Softwareentwicklung verstehst, sonst würdest du nicht einen solchen Mist von dir geben.
 
@kfedder: "Man merkt"...an was?
 
@bluefisch200: Ich habe schon Software entwickelt, da bist du sicher noch mit der Blechtrommel und dem Weihnachstbaum gerannt. Sorry, aber ich glaube, du kennst nicht einmal den Unterschied zwischen einer "Rekursion" und einer "Iteration", ohne dafür in irgendwelchen Lexika nachzuschauen. Sorry für meine Überheblichkeit, aber bei solchen inkompetenten Kommentaren reagiere ich etwas allergisch.
 
@kfedder: @kfedder: Theroetische Informatik. Für das, was ich Dir am liebsten sagen würde, würde mein Posting hier gelöscht. Also belassen wir es dabei, dass ich Dir in Punkto überheblichkeit nicht wiedersprechen möchte. Welche Software hast Du denn entwickelt? Microsoft verfolgt bei seinen Kernen ein evolutionäres Entwicklungsmodelll. Der Kern wird nicht permanent neu geschrieben, sondern er wird weiterentwickelt.
Ich weiss was eine Rekursion ist. Noch so eine Unterstellung und Robin Hood hängt dich am nächsten B-Baum auf. PCO
 
ein redesign des codes ist immer gut, denn viele leichen oder unsauberprogrammierte dinge fallen weg
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles