Informazioni sui crawler di contenuto

La pagina illustra come creare un crawler per importare contenuto nel portale da repository di contenuto esterne. Si dovrà eseguire un job associato al crawler di contenuto per eseguire ricerche periodiche nella repository esterna sul contenuto, e importare quel contenuto. Per informazioni sui job, consultare Informazioni sui job.

Nota: i crawler di contenuto dipendono dalle origini contenuto. Per informazioni sulle origini dati consultare Informazioni sulle origini contenuto.

Quest'argomento tratta le seguenti informazioni:

Per imparare a creare o modificare oggetti amministrativi (crawler di contenuto inclusi), fare clic qui.

Crawler di contenuto Web

Un crawler di contenuto Web consente agli utenti di importare contenuto dal Web nel portale.

Per saperne di più sull'Editor Crawler di contenuto Web, fare clic su una delle seguenti pagine editor:

Crawler di contenuto remoto

Un crawler di contenuto remoto consente agli utenti di importare contenuto da una repository di contenuto esterna nel portale.

Alcuni provider di analisi vengono installati con il portale e sono immediatamente disponibili per i suoi utenti; altri provider richiedono installazione ed impostazione manuale. Ad esempio, Oracle offre i provider di analisi indicati di seguito.

Nota: Per informazioni su come ottenere provider di analisi, fare riferimento a Oracle Technology Network pressohttp://www.oracle.com/technology/index.html. Per informazioni su come installare i provider di analisi, fare riferimento a Installation Guide for WebCenter Interaction (Guida all'installazione di WebCenter Interaction), (disponibile sull'Oracle Technology Network (disponibile sull'Oracle Technology Network presso http://www.oracle.com/technology/documentation/bea.html) o alla documentazione in dotazione al provider di analisi, oppure contattare l'amministratore del portale.

Per creare un nuovo crawler di contenuto remoto, eseguire quanto descritto di seguito.

  1. Installare il provider di analisi sul computer del server del portale, o su un altro computer.
  2. Creare un server remoto.
  3. Creare un Web service contenuto (argomento discusso di seguito).
  4. Creare un'origine contenuto remoto.
  5. Creare un crawler di contenuto remoto.

Per saperne di più sull'Editor Crawler di contenuto remoto, fare clic su una delle seguenti pagine editor:

Ogni provider di analisi ulteriormente installato include almeno una pagina extra per l'Editor Crawler di contenuto remoto.

Web service Contenuto

I Web service Crawler di contenuto consentono di specificare le impostazioni generali per la repository di contenuto remoto, lasciando le impostazioni di destinazione e sicurezza alla fonte di autenticazione remota associata ed al crawler di contenuto remoto. Questo consente di analizzare più posizioni della stessa repository di contenuto senza dover ripetutamente specificare tutte le impostazioni.

Nota: l'utente crea Web service Crawler di contenuto su cui basare le proprie origini contenuto remoto. Per informazioni sulle origini dati consultare Informazioni sulle origini contenuto.

Per saperne di più sull'Editor dei Web service contenuto, fare clic su una delle seguenti pagine editor:

Importazione della sicurezza documenti

Agli utenti può essere automaticamente concesso l'accesso al contenuto importato da alcuni crawler di contenuto remoti. La Mappa ACL di sincronizzazione globale mostra a questi crawler di contenuto come importare la sicurezza dei documenti d'origine.

Se si desidera vedere un esempio di importazione della sicurezza, fare clic suEsempio di importazione della sicurezza.

Risoluzione di problemi derivanti dai risultati di un'analisi

Qualora il crawler di contenuto non dovesse importare il contenuto previsto, si consiglia di controllare quanto segue.