Moin,
Meine Fragen standen ja deutlich drin:
Ja, aber die Antwort dazu steht ja in der von Dir verlinkten Seite.
was sind den seiten die nicht verlinkt sind?
Ich hatte schon vermutet, dass Dir einige Grundlagen fehlen, wenn Du den Artikel nicht verstanden hast. Ich habe selber noch nie XML Sitemaps erstellt, habe den Artikel aber als verständlich empfunden, wenn man mit dem Erstellen von Webseiten und der dahinterliegenden Technik vertraut ist.
Seiten, die nicht verlinkt sind, sind solche Seiten, auf die es von keiner anderen Seite einen Link gibt, so dass Suchmaschinen diese nicht indizieren können.
und zu was hat man seiten online, wenn kein besucher dahin
kommen soll (indem man nicht verlinkt?) versteh ich nicht.
Nicht verlinkt heißt ja nicht, dass kein Besucher hin kommt. Es reicht ja, wenn man eine URL im Klartext schreibt, ohne sie auch als Link auszuzeichnen. Dann kommt da jeder hin, der da hin will, außer eben Suchmaschinen. Über Sinn und Unsinn möchte ich nicht diskutieren, ich habe zwar durchaus Verwendung für nicht verlinkte Seiten, aber das sind dann auch solche, die nicht von jedem aufgerufen werden (also z.B. Administrationsseiten einer Website). Aber die würde ich auch nicht in eine XML Sitemap eintragen.
Auch versteht der von Dir hier verlinkte Artikel unter solchen Seiten die, deren Inhalte z.B. per Ajax erzeugt wurden. Dynamische Inhalte, die asynchron vom Server abgeholt werden z.B. Der Nutzer wählt seine Wunschinhalte möglicherweise nicht über Links, sondern über Formularelemente (select) aus. Aber zu jedem dieser dynamischen Inhalte kann man ja trotzdem eine eigene URL erstellen, indem man einem Script eine bestimmte ID mitgibt. Dann ist diese Seite nicht verlinkt (Ajax stellt keine Verlinkung und eine unüberwindbare Hürde für Suchmaschinen dar), aber sie hat trotzdem eine eigene URL. Das wäre für eine Sitemap eine sinnvolle Anwendung.
ich glaube schon das alle meine seiten verlinkt sind. sonst
könnt ich online dahin gar nicht navigieren.
Wenn man unter „navigieren“ auch das direkte Eingeben einer URL in die Adresszeile des Browsers versteht, dann ginge das schon.
inzwischen habe ich herausgefunden, das es sitemaps
generatoren gibt, und ich nicht alles selbst schreiben muss.
kannste was gutes empfehlen?
Nein, ich habe keine Erfahrung mit XML Sitemaps.
und was ist mit der robots?
Dazu habe ich mich nicht geäußert 
Aber meine Meinung dazu deckt sich weitestgehend mit Deiner, die Datei wird dann interessant, wenn man Suchmaschinen den Zugang verbieten möchte.
Letztendlich kann man mit solchen Mechanismen einiges für Suchmaschinen verbessern. Aber nicht jede Website benötigt sowas. Arbeitet man anständig, richtig und nach dem, was die Websprachen bewirken sollen (ich meine damit HTML nur für die Semantik, Trennung von Inhalt und Layout, kein Einsatz optionaler Techniken ohne Alternativinhalte), dann haben auch Suchmaschinen keine Probleme dmait und man braucht keine zusätzliche Optimierung.
Grüße,
-Efchen