Sobre Crawlers de Conteúdo

Crie um crawler de conteúdo para importar conteúdo para seu portal a partir de repositórios de conteúdo externos. Você deve executar um job associado ao crawler de conteúdo para pesquisar periodicamente o conteúdo do repositório externo e importar esse conteúdo. Para obter mais informações sobre jobs, consulte Sobre Jobs.

Observação: Crawlers de conteúdo dependem de origens de conteúdo. Para obter informações sobre origens de conteúdo, consulte Sobre Origens de Conteúdo.

Este tópico trata das seguintes informações:

Para saber como criar ou editar objetos administrativos (inclusive crawlers de conteúdo), clique aqui.

Crawlers de Conteúdo Web

Um crawler de conteúdo Web permite que usuários importem conteúdo Web para o portal.

Para saber mais sobre o Editor de Crawler de Conteúdo Web, clique em uma das páginas a seguir:

Crawlers de Conteúdo Remotos

Um crawler de conteúdo remoto permite que usuários importem conteúdo de um repositório externo para o portal.

Alguns provedores de crawling são instalados com o portal e ficam prontamente disponíveis para os usuários, mas outros exigem instalação e configuração manuais. Por exemplo, a Oracle oferece os seguintes provedores de crawling:

Observação: Para informações sobre como obter provedores de crawling, consulte a Oracle Technology Network em http://www.oracle.com/technology/index.html. Para obter informações sobre a instalação de provedores de crawling, consulte o Installation Guide for Oracle WebCenter Interaction (disponível na Oracle Technology Network em http://www.oracle.com/technology/documentation/bea.html) ou a documentação que acompanha seu provedor de crawling. Se preferir, entre em contato com o administrador do portal.

Para criar um crawler de conteúdo remoto:

  1. Instale o provedor de crawling no computador do portal ou em outro computador.
  2. Crie um servidor remoto.
  3. Crie um Web service de conteúdo (abordado a seguir).
  4. Crie uma origem de conteúdo remota.
  5. Crie um crawler de conteúdo remoto.

Para saber mais sobre o Editor de Crawler de Conteúdo Remoto, clique em uma das páginas do editor a seguir:

Os seguintes provedores de crawling, se instalados, incluem pelo menos uma página extra no Editor de Crawler de Conteúdo Remoto.

Web Services de Conteúdo

Os Web services de conteúdo permitem que você especifique definições gerais para seu repositório de conteúdo externo, deixando as definições de destino e segurança para serem definidas no crawler de conteúdo remoto e na origem de conteúdo remota associados. Isso permite rastrear diversos lugares do mesmo repositório de conteúdo sem ter de especificar todas as definições repetidamente.

Observação: Você cria Web services de conteúdo nos quais baseia as origens de conteúdo remotas. Para obter informações sobre origens de conteúdo, consulte Sobre Origens de Conteúdo.

Para saber mais sobre o Editor do Web Service de conteúdo, clique em uma das páginas do editor a seguir:

Importar Segurança de Documentos

É possível conceder automaticamente ao usuário acesso ao conteúdo importado por alguns crawlers de conteúdo remotos. O mapa de sincronização da ACL global mostra a esses crawlers de conteúdo como importar a segurança do documento de origem.

Para obter um exemplo de como funciona a importação de segurança, consulte Exemplo de Importação de Segurança.

Solucionar Problemas de Resultados de Crawling

Se seu crawler de conteúdo não importar o conteúdo esperado, confira alguns itens: