Hallo,
mit folgendem recht bekannten Code ist es möglich Daten einer Internetseite herunterzuladen:
Das klappt bei normalen html Seiten auch wunderbar.
Allerdings nicht bei komplexeren Seiten wie z.B. dieses Forum hier. Dies umfaßt z.B. Seiten die PhP beinhalten.
Hat jemand eine Ahnung woran das liegen könnte, oder kennt jemand Code der bei allen Seiten funktioniert?
Danke im vorraus.
mit folgendem recht bekannten Code ist es möglich Daten einer Internetseite herunterzuladen:
Code:
import java.net.*;
import java.io.*;
import java.util.Date;
class UCDemo
{
public static void main(String args[]) throws Exception
{
int c;
URL hp = new URL ("http://www.java-forum.org/de/");
URLConnection hpCon = hp.openConnection();
System.out.println("Datum: " + new Date(hpCon.getDate()));
System.out.println("Inhaltstyp: " + hpCon.getContentType());
System.out.println("Ablauf: " + hpCon.getExpiration());
System.out.println("Letzte Änderung: " + new Date(hpCon.getLastModified()));
int len = hpCon.getContentLength();
System.out.println("Inhaltsumfang: " + len);
if (len > 0){
System.out.println("Inhalt");
InputStream input = hpCon.getInputSream();
int i = len;
while (((c = input.read()) != -1) && (--i > 0)) {
System.out.print((char) c);
}
input.close();
}
else {
System.out.println("Kein Inhalt verfügbar");
}
}
}
Das klappt bei normalen html Seiten auch wunderbar.
Allerdings nicht bei komplexeren Seiten wie z.B. dieses Forum hier. Dies umfaßt z.B. Seiten die PhP beinhalten.
Hat jemand eine Ahnung woran das liegen könnte, oder kennt jemand Code der bei allen Seiten funktioniert?
Danke im vorraus.