Conectores
Dados e Armazenamento
S3
11 min
objetivo/resumo ao usar o conector s3, você pode integrar facilmente o amazon s3 aos seus aplicativos, serviços ou fluxos de trabalho existentes, permitindo a manipulação de objetos armazenados na nuvem de forma flexível e escalável você pode realizar várias operações, como armazenamento de objetos, recuperação de objetos, listagem de objetos, exclusão de objetos, gerenciamento de buckets e transferência de dados criando um fluxo utilizando o conector s3 para criar um fluxo utilizando um conector s3 é preciso criar uma conexão e configurar o fluxo criando conexão s3 obs criar conexão docid 1pcvn0mjbfkujhmhj86k e acesse nosso passo a passo para saber como criar uma conexão estes são os seguintes parâmetros de configuração da conexão s3 que serão requisitados na hora da criação nome parâmetro padrão em qualquer criação de uma conexão, te ajudará a identificar melhor sua conexão descrição parâmetro padrão e opcional em qualquer criação de uma conexão, aqui você pode relatar detalhadamente para que fins servirá sua conexão id de acesso ou "access key" campo requerido para acesso ao serviço aws chave secreta ou "secret access key" campo requerido para acesso ao serviço aws região zona/local onde seu serviço será executado configurando fluxo s3 crie um fluxo e arraste o conector s3 para o canvas obs criar fluxo docid\ ocjtbfhi9rerkr2d6owip e acesse nosso passo a passo para saber como criar um fluxo selecione o conector e na aba de parametrização e preencha os seguintes parâmetros de configuração recurso entidade para qual será realizada a ação no momento o conector dispões três recursos sendo eles, file, bucket e folder; operação ação que será realizada para o recurso selecionado operações disponiveis para recurso file download usado para buscar um arquivo no bucket, necessário informar nome do bucket e o caminho do arquivo que será feito o download; copy usado para copiar um arquivo de um bucket para o outro, necessário informar nome de origem e de destino do bucket, e também o caminho da origem e o caminho de destino do arquivo; move usado para mover arquivos entre pastas, necessário informar nome do bucket, o caminho de origem do arquivo e o caminho de destino do arquivo upload usado para enviar um arquivo para o bucket, necessário informar nome do bucket, caminho para onde o arquivo será enviado e como será o envio do conteúdo que pode ser enviado utilizando template docid\ treajh8tvdyh6ukyeaqzp ou de/para docid\ voqdaukjjknbswvrhbzqw permite também carregar arquivos de imagem e pdf em formato base64, basta ativar a flag "enviar base64" no corpo delete usado para excluir um arquivo, necessário informar nome do bucket e caminho do arquivo; operações disponiveis para recurso bucket create usado para criar um bucket, necessário informar o nome do bucket que será criado; delete usado para excluir um bucket, necessário informar o nome do bucket que será excluido; operações disponiveis para o recurso folder create usado para criar uma pasta, necessário informar o nome do bucket e o nome da pasta; delete usado para excluir uma pasta, necessário informar o nome do bucket e o nome da pasta; nota estes campos podem ser preenchidos usando fluid expression language docid 0vqvpw6saqz2z1jgp8fwc na prática neste tópico será demonstrado um tutorial de como criar um fluxo utilizando o conector s3 o fluxo terá 2 passos sendo eles random e upload passo 'random' o passo random é um conector http que fará um get em uma api pública chamada random acessando o endpoint /api/v2/users que nos retornará dados de um usuário aleatório assim ficou as configurações do nosso conector http na aba parametrização já na aba propriedades é informado apenas o nome do passo, pois o get nessa api não precisa de nenhum tipo de conexão nota para obter detalhes sobre nosso conector http clique em http docid ix6fj1xxma6nvqnol8mx fluxo de mensagens entrada neste caso não possui dados de entrada saída { "address" { "city" "east leighannfort", "coordinates" { "lat" 3 448259196515579, "lng" 143 00972472900668 }, "country" "united states", "state" "alabama", "street address" "70782 phillip landing", "street name" "beahan plaza", "zip code" "67599" }, "avatar" "https //robohash org/estenimsunt png?size=300x300\u0026set=set1", "credit card" { "cc number" "5179 6005 6766 4942" }, "date of birth" "1994 12 26", "email" "shameka lowe\@email com", "employment" { "key skill" "networking skills", "title" "dynamic retail manager" }, "first name" "shameka", "gender" "bigender", "id" 3653, "last name" "lowe", "password" "a8govzc6oi", "phone number" "+1 939 (939) 395 3399 x0096", "social insurance number" "324312263", "subscription" { "payment method" "visa checkout", "plan" "student", "status" "pending", "term" "payment in advance" }, "uid" "8d22e2c3 c4c0 4dbc 9349 6bc32c3c1cec", "username" "shameka lowe" } passo 'upload' o passo upload é usado um conector s3 que enviará um arquivo para o bucket ultilizando o de/para docid\ voqdaukjjknbswvrhbzqw para fazer a transformação dos dados recebidos no passo random , e assim criar o conteúdo do arquivo assim ficou as configurações do nosso conector s3 na aba parametrização de/para usado para criar o objeto do conteúdo na aba propriedades informamos o nome do passo, a conexão criada com as credenciais da aws fluxo de mensagens entrada { "bucket" "teste icones", "path" "/poc clara/teste json" } resultado do de/para do conteúdo { "data nascimento" "1994 12 26", "email" "shameka lowe\@email com", "nome" "shameka" } saída { "bucket" "teste icones", "message" "success", "path" "/poc clara/teste json" } resultado após disparar o fluxo podemos ver o resultado final nos logs que aparecerá no canvas, e clicando em detalhes teremos os dados da requisição e da resposta e se olharmos no bucket e no caminho usado no exemplo do passo 'upload' podemos vizualizar o arquivo 'teste json' criado com o conteúdo gerado