To use this website completely, it is necessary to store cookies on your computer.
 

* Navigator

Expand - Collapse

* Statistic

  • *Total Posts: 16404
  • *Total Topics: 2518
  • *Online Today: 10
  • *Most Online: 292
(12. Nov 2016, 09:37:31)
  • *Users: 0
  • *Guests: 0
  • *Spiders: 2
  • *Total: 2

  • *Yahoo!
  • *Google

SiteMap slow if SEF enabled

Started by feline, 28. Jul 2011, 12:16:31

previous topic - next topic

0 Members and 0 Guests are viewing this topic.

Go Down

hartiberlin

#15
11. Nov 2011, 15:57:39
Okay, muss ich also den Fix machen, ja ?

Habe es im Augenblick ohne diesen Fix laufen...
was passiert dann ?

Danke.

feline

#16
11. Nov 2011, 16:01:16
Muss man nicht machen ... zusammen mit dem scheduled Task kann man die xml liste schneller aufbauen
Many are stubborn in relation to the path, a few in relation to the target.

hartiberlin

#17
12. Nov 2011, 05:15:36
Okay, wo liegt jetzt eigentlich , wenn man SEF enabled hat,
das sitemap file ?

Bei:
domain.com/sitemap/
oder
domain.com/sitemap.xml

??

Also was muss ich bei den Google Webmastertools einstellen ?

Danke.

feline

#18
12. Nov 2011, 10:28:44
Quote from: hartiberlin on 12. Nov 2011, 05:15:36
Okay, wo liegt jetzt eigentlich , wenn man SEF enabled hat,
das sitemap file ?
Also was muss ich bei den Google Webmastertools einstellen ?

Die SEF-Url ist domain.tld/sitemap/xml/
Many are stubborn in relation to the path, a few in relation to the target.

hartiberlin

#19
15. Nov 2011, 00:46:48
Hmm,
Webmastertools findet nichts:

http://www.overunity.com/sitemap/xml/

Woran kann das liegen ?

Hatte nur den Patch
sitemap_patch2.zip
eingespielt und auf 7500 gestellt,
den Cron-Job habe ich aber noch nicht gemacht...

Muss ich die Veränderungen für den Cronjob dann auch zwingend machen ?

Danke.

hartiberlin

#20
15. Nov 2011, 00:52:54
P.S: Kann es sein, dass durch das SEF auch Google Webmastertools nicht mehr auf das
robots.txt
zugreifen kann ?

feline

#21
15. Nov 2011, 13:37:57
Wenn ich auf die url http://www.overunity.com zugreife bekomme ich nur

Connection Problems
Sorry, SMF was unable to connect to the database. This may be caused by the server being busy. Please try again later.

Du kannst den Link doch einfach testen ... da siehst du die xml liste. Und wenn das klappt, gehts auch mit Google.
Und mit der robots.txt hat das nichts zu tun, ich habe z.B. folgende:
User-agent: *
Disallow: /attachments/
Disallow: /avatars/
Disallow: /cache/
Disallow: /editor_uploads/
Disallow: /fckeditor/
Disallow: /Packages/
Disallow: /Smileys/
Disallow: /Sources/
Disallow: /Themes/
Many are stubborn in relation to the path, a few in relation to the target.

hartiberlin

#22
15. Nov 2011, 19:58:44
So,
jetzt geht es wieder...
weiss auch nicht woran es lag.

unter:

www.overunity.com/sitemap/xml
kam gar nichts..
Habe dann nochmal das Sitemap Plugin deinstalliert und
dann nochmal installiert und dann den Patch vom Anfang dieses Threads nochmal,
kam immer noch nichts...

Dann mal den ersten Wert von 20.000 Threads auf 10.000 Thread geaändert
und abgespeichert und siehe da, es kam was !

Dann wieder auf 20.000 zurückgestellt und jetzt geht es...
Müssen wohl irgendwelche falschen Parameter vorher in der Datenbank gewesen sein....

So jetzt werde ich nochmal diese CronJob Modifikation machen, damit er auch alle 2 Stunden
die Sitemap neu macht und es dann bei Google Webmastertools eintragen.

Danke.

Gruss, Stefan.

hartiberlin

#23
16. Nov 2011, 01:42:11
Hmm,
eben wurde wieder nichts angezeigt bei:
www.overunity.com/sitemap/xml


Dann habe ich die Anzahl der Threads mal auf 1000
runtergestellt, abgespeichert und damm wieder
auf 20.000 hochgestellt...

Habe aber noch nicht den Cronjob gmeacht gehabt, nur den Patch2
hochgespielt gehabt...


Bei Google webmastertools zeigt er nun aber nur an:

Submitted URLs
1,087
0 URLs in web index


Hmm, habe aber bestimmt mehr als 1087 threads...

Da kann noch was nicht stimmen...

feline

#24
16. Nov 2011, 10:48:38
Du solltest erst mal mit geringerer zahl anfangen und schauen wie lange der aufbau der xml seite dauert.
Wenn das länger wird als die maximale laufzeit eines php scripts bricht der server ab .... dann kommt nix
Many are stubborn in relation to the path, a few in relation to the target.

hartiberlin

#25
16. Nov 2011, 19:35:59
Aha, verstehe.

Sind am Anfang der Sitemap eigentlich immer die neusten Threads und Postings ?

Dann könnte ich das ja auch auf nur 3000 oder weniger stellen...
das würde ja eigentlich reichen , oder ?

Vielleicht holt ja der Google Spider dann trotzdem noch mehr ?


feline

#26
16. Nov 2011, 20:22:11
Schau dir die xml liste doch einfach an .... wenn du den link im browser eingibst, siehst du das doch ...
Many are stubborn in relation to the path, a few in relation to the target.

hartiberlin

#27
17. Nov 2011, 14:12:03
Der Server macht schon wieder nichts...
Da kommt kein Output wenn man das aufruft:

http://www.overunity.com/sitemap/xml

Dieser blöde SlammedDime, wie kann man so ein Sch**ss programmieren...
Hätte er doch daran denken müssen, dass PHP Scripte nicht ewig laufen und
dass dann das Sitemap file nicht fertig ist, wenn in einem grösseren Forum es abbricht.

Werde jetzt erstmal diesen Cronjob Patch noch machen und dann sehen, ob es dann läuft...

feline

#28
17. Nov 2011, 19:15:53
Der cronjob bringt nichts, wenn das script nicht korrekt läuft.
Versuch erst mal den Fehler zu finden ...
Many are stubborn in relation to the path, a few in relation to the target.

hartiberlin

#29
17. Nov 2011, 20:38:33
Tja, 20.000 scheint einfach zu hoch zu sein.

Nur bis ca. 5000 Threads läuft es bei mir.

Kann das daran liegen, dass meine Datenbank auf einem zu langsamen
SQL Server liegt, der zu lange braucht ?

Bin ja auf einem shared Hoster...

Go Up