Hi,
also erstmal weiss ich dass ich sowas in der Art schon mal vor ~1 Jahr gefragt hatte.
Leider habe ich es per SuFu nicht mehr gefunden, irgendwie ist das auch verbuggt (Wenn man nach
Autor "hdi" sucht kommen nicht nur meine Themen, sondern generell meine Beiträge)
Die Frage:
Bsp: Ich habe die Website www.tolledownloads.de, die eig. nur ne ganz normale HTML site ist mit
irgendwelchen Links. Die Links führen evtl auf andere Webseiten, oder bergen direkt ein Downloadbares File.
Ist es nun mit Java irgendwie möglich, mich zu dieser Website zu verbinden, sie auf ihre Links zu scannen, und
einen Link zu verfolgen (ggbflls über weitere Links), bis ich an einem Link angekommen bin, der direkt eine Datei
hergibt? (D.h. man kann auf der Seite auf den Link -> Rechtsklick -> Speichern unter und bekommt halt nicht
die HTML Seite, sondern eben eine "echte" Datei).
...und diese dann downloaden.
Falls das so pauschal nicht geht, wie könnte das eingeschränkt gehen? Bsp wenn ich genauere Informationen
über den Aufbau der Seite o.ä. habe, kann ich diese Infos in meinem Programm verwenden damit es klappt?
Im Zusammenhang damit frage ich mich, kann ich eine Website nach bestimmten Links durchsuchen, also
quasi nur den HTML Text durchsuchen? Sodass ich mich verbinde, und halt immer dort wo ich grad bin den
Site Content (wie gesagt: pures HTML, kein php oder jsp etc) überprüfe auf zB den Text "Download Eclipse",
und wenn ich nen Link mit diesem Teilstring gefunden habe, ihn verfolgen und Datei downloaden..
Das interessiert mich mal echt, weil es gibt viele Seiten im Inet die sich täglich updaten mit tollem Stuff,
alleine schon zB eine News-Seite,und deren Links alle nachverfolgen und den kompletten Content dann
als txt automatisch auf die Platte speichern.
Ich weiss es gibt Feeds dafür, aber wenn die Seite keine anbietet?
Naja, würd mich mal interessieren.
PS: Ich red hier erstmal nur von Seiten, wo man sich nicht einloggen muss oder sowas, also wo man direkten Zugriff auf Downloadlinks hat.
Danke
also erstmal weiss ich dass ich sowas in der Art schon mal vor ~1 Jahr gefragt hatte.
Leider habe ich es per SuFu nicht mehr gefunden, irgendwie ist das auch verbuggt (Wenn man nach
Autor "hdi" sucht kommen nicht nur meine Themen, sondern generell meine Beiträge)
Die Frage:
Bsp: Ich habe die Website www.tolledownloads.de, die eig. nur ne ganz normale HTML site ist mit
irgendwelchen Links. Die Links führen evtl auf andere Webseiten, oder bergen direkt ein Downloadbares File.
Ist es nun mit Java irgendwie möglich, mich zu dieser Website zu verbinden, sie auf ihre Links zu scannen, und
einen Link zu verfolgen (ggbflls über weitere Links), bis ich an einem Link angekommen bin, der direkt eine Datei
hergibt? (D.h. man kann auf der Seite auf den Link -> Rechtsklick -> Speichern unter und bekommt halt nicht
die HTML Seite, sondern eben eine "echte" Datei).
...und diese dann downloaden.
Falls das so pauschal nicht geht, wie könnte das eingeschränkt gehen? Bsp wenn ich genauere Informationen
über den Aufbau der Seite o.ä. habe, kann ich diese Infos in meinem Programm verwenden damit es klappt?
Im Zusammenhang damit frage ich mich, kann ich eine Website nach bestimmten Links durchsuchen, also
quasi nur den HTML Text durchsuchen? Sodass ich mich verbinde, und halt immer dort wo ich grad bin den
Site Content (wie gesagt: pures HTML, kein php oder jsp etc) überprüfe auf zB den Text "Download Eclipse",
und wenn ich nen Link mit diesem Teilstring gefunden habe, ihn verfolgen und Datei downloaden..
Das interessiert mich mal echt, weil es gibt viele Seiten im Inet die sich täglich updaten mit tollem Stuff,
alleine schon zB eine News-Seite,und deren Links alle nachverfolgen und den kompletten Content dann
als txt automatisch auf die Platte speichern.
Ich weiss es gibt Feeds dafür, aber wenn die Seite keine anbietet?
Naja, würd mich mal interessieren.
PS: Ich red hier erstmal nur von Seiten, wo man sich nicht einloggen muss oder sowas, also wo man direkten Zugriff auf Downloadlinks hat.
Danke