Kann man eigentlich sagen, dass Nebenläufigkeit von Parallelität abhängt oder umgekehrt? Wenn ja, warum?
hängt Vererbung vom Typsystem ab
hängt Schule vom Supermarkt ab?
klingt etwas seltsam diese Frage, wie können Begriffe von einander abhängen?
was beides bedeutet weißt du doch sicher ungefähr,
Parallelität ist dann ein Spezialfall von Nebenläufigkeit,
wie auch google sofort verrät
http://www.inf.hs-zigr.de/~wagenkn/TI/Paradigmen/parallel1/node5.html(kann man bestimmt auch anders definieren?)
Aha und noch was, bei den Definitionen der Komplexitäten bei parallelen Algorithmen wird immer von Probleminstanzen der Größe n geredet. Aber was kann ich mir eigentlich darunter genau vorstellen???
wenn die Eingabe eines Programmes immer konstant groß ist oder in einem festen Wertebereich liegt,
ist es eher langweilig über Komplexität zu sprechen,
(z.B. ein Programm dass einen char in einen int-Wert umrechnet)
spannender wirds wenn das Problem beliebig groß werden kann und man sich fragt wie sich dies auf die Komplexität auswirkt
unter Größe des Problems versteht man zum Beispiel die Größe einer Festplatte, die man einem Partitionierungsprogramm zumutet,
da wird die Arbeit sicher linear ansteigen,
anders ist es bei einem Sortierungsalgorithmus für alle Bits auf der Platte,
mit größerer Platte (1 MB, 1 GB, 50 GB, n GB) hat man z.B. n log n Aufwand,
also abhängig von der Größe des Problems,
da verschiedene Probleme verschiedene Einheiten haben (GB/ eine Zahl an sich/ Anzahl Kanten in einem Netz, ..)
spricht man allgemein einfach von n als abstrakten Wert
Kann mir jemand sagen, was man eigentlich mit der Prozessorkomplexität angibt?
da gibts doch einen feinen Satz im Skript?
muss man nicht groß weiter drüber nachdenken,
manche Algorithmen brauchen eben wenig Prozessoren auch bei großen Problemen (relativ gesehen), andere viele,
das möchte man als eine Komplexitätsklasse ausdrücken..