Hallo,
Die einfachste Antwort ist: Weil man es kann. 
Mit Spielekonsolen kenne ich mich nicht aus, aber das Problem ist ein Allgemeines in der Computerei.
Eine CPU kann eine bestimmte Anzahl Befehle pro Sekunde abarbeiten. Um also eine bestimmte Reaktionszeit zu erhalten, muss das Programm entsprechend kurz sein.
Ein 6502 konnte mit 1MHz Takt einige 100’000 Befehle/s verarbeiten. Mit einem Befehl konnten maximal 8-Bit bearbeitet werden und Ganzzahl-Multiplikation/Division mussten durch ein Programm verarbeitet werden.
Heutige CPUs haben einen 3-4 Tausend mal höheren Takt, mehrere parallel arbeitende CPUs und eine PFU. Ein einzelner Befehl kann kompliziertere Operationen ausführen und es können 64-Bit (80-Bit bei der FPU) in einem einzelnen Befehl bearbeitet werden.
Beim APPLE ][ musste jedes einzelne Pixel vom 6502 einzeln berechnet und in den Graphikspeicher geschrieben werden.
Heute übernimmt dies der Grafikprozessor (GPU). So eine GPU ist ein Vektorrechner, ist also dafür optimiert eine bestimmte Operation auf viele Daten anzuwenden. Dabei wird massive Parallel-Verarbeitung gesetzt. Heutige GPUS haben eine höhere Rechenleistung als die CPU, weshalb aktuelle Supercomputer mit GPUs gebaut werden.
Um also schnelle Programme zu erzeugen, musste man Früher in Assembler programmieren, weil man nur so optimal optimieren konnte. Hochsprachen wie z.B. C, erzeugten Anfangs etwa 20-50% mehr Code, als ein Assembler-Programm. Heutige optimierende C-Compiler erzeugen noch etwa 10% mehr Code. Andere Programmiersprachen erzeugten noch mehr Code oder waren, durch ihre Architektur viel langsamer.
Eine Konstante über Jahrzehnte ist, dass ein Programmierer etwa 10 Zeilen Code pro Tag erzeugt. Die beinhaltet das Schreiben, Testen und Dokumentieren.
Wenn man für eine Aufgabe 1’000 Maschinen-Befehle benötigt, sind dies in Assembler etwa 100 Arbeitstage. In C ergibt die vielleicht 100 Zeilen Code, also 10 AT. Mit einer passenden Bibliothek geht das dann mit 10 Zeilen Code, also in einem Arbeitstag! Grundsätzlich muss man auch Treiber zu den Bibliotheken zählen.
So, jetzt kommen wir der eigentlichen Frage langsam näher.
So eine Bibliothek stellt nun aber eine Menge Funktionen zur Verfügung und möglicherweise benötige ich 2 von 100 Funktionen. Installiert, und auf DVD abgelegt, wird aber die ganze Bibliothek!
Einen ähnlichen Effekt hat auch die Objekt Orientierte Programmierung (OO). Wen man nicht aufpasst, schleppt man vie unbenutzten Code mit der Vererbung mit rum.
Übrigens funktioniert die DNA auch nach diesem Prinzip. Viele DNA-Abschnitte werden beim Menschen dar nicht genutzt und sind irgendwelche Code-Überreste aus der Vergangenheit. Die 1-2% Unterschied zum Schimpansen, scheinen hauptsächlich im „Hauptprogramm“ zu liegen. Der Hauptunterschiel liegt dann darin, dass beim Menschen viele „Unterprogramme“ wesentlich öfters ausgeführt werden.
Ein weiterer Grund sind die Programmierer und Politik mancher Firmen.
Vor 50 Jahren gab es weltweit wenig Arbeitsplätze für Programmierer. Da wurde also gesiebt und nur die Besten, Genialsten und Erfahrensten fanden einen Arbeitsplatz. Heute ist es umgekehrt. Die Firmen sind froh, wenn sie überhaupt jemanden finden, welcher ein Programm erstellen kann. Hinzu kommt noch, dass z.B. Bill Gates der Meinung war, dass nur Junge Leute Ideen haben. Da wurden Leute eingestellt, noch bevor sie Ihre Ausbildung beendet hatten. Dies führte dann zu Problemen wie bei SASSER.
Die Lücke welche SASSER ausnutzte bestand in einem ganz einfachen Anfängerfehler. Man hat einen Datenkanal (Ethernet) welcher Datenpakete mit bis zu 64KB transportieren kann, Dann programmiert man einen Dienst, welcher. per Definition, mit Datenpaketen von maximal 4KB arbeitet. Nun hat man einfach vergessen zu prüfen ob das erhaltene Paket grösser als 4KB ist…
Aus Benutzersicht, sind Computer eigentlich in den letzten Jahrzehnten nicht schneller geworden. Das Laden und die Ausführung von Befehlen dauert immer noch gleich lang.
Allerdings tut sich heute natürlich viel mehr im Hintergrund!
Mit dem Übergang von Konsolen basierten Betriebssystemen (z.B. DOS) zu graphischen Oberflächen (z.B. Windows) wurde viel CPU-Leistung in die Grafik gesteckt und für die eigentliche Aufgabe blieb nicht wirklich mehr Rechenzeit übrig.
Kaum kommt die neue Rechnergeneration wieder nach, werden neue Gimmicks eingebaut, welche wieder Rechenleistung benötigen.
Ich weiss nicht woran es liegt, aber Spiele haben schon immer die neueste, leistungsstärkste Hardware benötigt. Meiner Meinung nach, lag es vor allem am Wissen und der Kunst zu programmieren. Schon zu DOS-Zeiten gab es etliche Spiel, welche selbst mit 640KB RAM nicht funktioniert hatten, wenn man einen Tastaturtreiber installiert hatte, welcher nun mal einige KB Speicherplatz belegt hatte. Diese Programmierer gingen einfach davon aus, dass ausser dem DOS selbst nichts anderes im Speicher abgelegt ist. Dies hat damals bei der englischen DOS-Version funktioniert, weil diese den Tastaturtreiber des BIOS verwenden konnte. 
Der PET wurde ursprünglich mit 4KB RAM ausgeliefert, auf dem Motherboard aufrüstbar auf 8KB. Ein paar Jahre vorher gab es professionelle Multiuser Computer mit 16 Usern/Terminals und 32-64 Kilo-Byte RAM.
MfG Peter(TOO)