Sollten in einer Bibliothek mehr als 30000 Elemente vorhanden sein,  kann es passieren, dass der Crawlvorgang zulange für diese Bibliothek benötigt und wegen eines Timeouts abbricht. Im Crawlprotokoll befindet sich dann folgende Meldung:

 

“The item may be too large or corrupt. You may also verify that you have the latest version of this IFilter.”

 

Das Problem liegt darin, dass es bei großen Dateien und bei großen Bibliotheken zu Timeouts kommen kann und diese den Crawler dazu anhalten den Vorgang abzubrechen.

Abhilfe schaffen die folgenden Änderungen in der Registry:

 

HKLM/SOFTWARE/Microsoft/Office Server/12/Search/Global/GatheringManager/DedicatedFilterProcessMemoryQuota” –> folgenden Wert setzen: 256000000 Hex

 

HKLM/SOFTWARE/Microsoft/Office Server/12/Search/Global/GatheringManager/FilterProcessMemoryQuota –> folgenden Wert setzen: 256000000 Hex

 

HKLM/SOFTWARE/Microsoft/Office Server/12/Search/Global/GatheringManager/FolderHighPriority –> folgenden Wert setzen: 500 Hex

 

 

HKEY_LOCAL_MACHINE/SOFTWARE/Microsoft/Office Server/12.0/Search/Global/Gathering Manager: set DeleteOnErrorInterval –> folgenden Wert setzen: 4 Decimal