Add Activepieces integration for workflow automation
- Add Activepieces fork with SmoothSchedule custom piece - Create integrations app with Activepieces service layer - Add embed token endpoint for iframe integration - Create Automations page with embedded workflow builder - Add sidebar visibility fix for embed mode - Add list inactive customers endpoint to Public API - Include SmoothSchedule triggers: event created/updated/cancelled - Include SmoothSchedule actions: create/update/cancel events, list resources/services/customers 🤖 Generated with [Claude Code](https://claude.com/claude-code) Co-Authored-By: Claude Opus 4.5 <noreply@anthropic.com>
This commit is contained in:
@@ -0,0 +1,75 @@
|
||||
{
|
||||
"Extract structured data from websites using AI with natural language prompts": "Extraire des données structurées à partir de sites Web utilisant une IA avec des instructions de langage naturel",
|
||||
"\nFollow these steps to obtain your Firecrawl API Key:\n\n1. Visit [Firecrawl](https://firecrawl.dev) and create an account.\n2. Log in and navigate to your dashboard.\n3. Locate and copy your API key from the API settings section.\n": "\nFollow these steps to obtain your Firecrawl API Key:\n\n1. Visit [Firecrawl](https://firecrawl.dev) and create an account.\n2. Log in and navigate to your dashboard.\n3. Locate and copy your API key from the API settings section.\n",
|
||||
"Scrape Website": "Site Web de Scrape",
|
||||
"Extract Structured Data": "Extraire des données structurées",
|
||||
"Crawl": "Rampes",
|
||||
"Crawl Results": "Résultats de Crawl",
|
||||
"Map Websites": "Sites web cartographiques",
|
||||
"Custom API Call": "Appel API personnalisé",
|
||||
"Scrape a website by performing a series of actions like clicking, typing, taking screenshots, and extracting data.": "Scrape un site Web en effectuant une série d'actions telles que le clic, la saisie, la prise de captures d'écran et l'extraction de données.",
|
||||
"Extract structured data from multiple URLs using AI.": "Extraire des données structurées à partir de multiples URLs en utilisant AI.",
|
||||
"Crawl multiple pages from a website based on specified rules and patterns.": "Crawl plusieurs pages à partir d'un site Web basé sur des règles et des motifs spécifiés.",
|
||||
"Get the results of a crawl job.": "Obtenez les résultats d'une tâche d'exploration.",
|
||||
"Input a website and get all the urls on the website.": "Entrez un site web et obtenez toutes les URLs sur le site.",
|
||||
"Make a custom API call to a specific endpoint": "Passez un appel API personnalisé à un point de terminaison spécifique",
|
||||
"Website URL": "URL du site web",
|
||||
"Timeout (ms)": "Délai d'attente (ms)",
|
||||
"Perform Actions Before Scraping": "Effectuer des actions avant la fouille",
|
||||
"Action Properties": "Propriétés de l'action",
|
||||
"Output Format": "Format de sortie",
|
||||
"Extraction Prompt": "Proposition d'extraction",
|
||||
"Schema Mode": "Mode Schéma",
|
||||
"Data Definition": "Définition des données",
|
||||
"URLs": "URLs",
|
||||
"Enable Web Search": "Activer la recherche Web",
|
||||
"Timeout (seconds)": "Délai d'attente (secondes)",
|
||||
"Data Schema Type": "Type de schéma de données",
|
||||
"URL": "URL",
|
||||
"Prompt": "Prompt",
|
||||
"Limit": "Limite",
|
||||
"Only Main Content": "Seulement le contenu principal",
|
||||
"Deliver Results to Webhook": "Livrer les résultats au Webhook",
|
||||
"Webhook Properties": "Propriétés du Webhook",
|
||||
"Crawl ID": "ID du rampe",
|
||||
"Main Website URL": "URL du site web principal",
|
||||
"Include subdomain": "Inclure le sous-domaine",
|
||||
"Method": "Méthode",
|
||||
"Headers": "En-têtes",
|
||||
"Query Parameters": "Paramètres de requête",
|
||||
"Body": "Corps",
|
||||
"Response is Binary ?": "La réponse est Binaire ?",
|
||||
"No Error on Failure": "Aucune erreur en cas d'échec",
|
||||
"Timeout (in seconds)": "Délai d'attente (en secondes)",
|
||||
"The webpage URL to scrape.": "L'URL de la page Web à explorer.",
|
||||
"Maximum time to wait for the page to load (in milliseconds).": "Temps d'attente maximum pour le chargement de la page (en millisecondes).",
|
||||
"Enable to perform a sequence of actions on the page before scraping (like clicking buttons, filling forms, etc.). See [Firecrawl Actions Documentation](https://docs.firecrawl.dev/api-reference/endpoint/scrape#body-actions) for details on available actions and their parameters.": "Activer pour effectuer une séquence d'actions sur la page avant de gratter (comme cliquer sur des boutons, remplir des formulaires, etc.). Voir [Documentation des actions de Firecrawl](https://docs.firecrawl.dev/api-reference/endpoint/scrape#body-actions) pour plus de détails sur les actions disponibles et leurs paramètres.",
|
||||
"Properties for actions that will be performed on the page.": "Propriétés des actions qui seront effectuées sur la page.",
|
||||
"Choose what format you want your output in.": "Choisissez le format dans lequel vous voulez afficher votre sortie.",
|
||||
"Prompt for extracting data.": "Demander l'extraction de données.",
|
||||
"Data schema type.": "Type de schéma de données.",
|
||||
"Add one or more URLs to extract data from.": "Ajoutez une ou plusieurs URLs pour extraire des données.",
|
||||
"Describe what information you want to extract.": "Décrivez quelles informations vous voulez extraire.",
|
||||
"Enable web search to find additional context.": "Activer la recherche web pour trouver un contexte supplémentaire.",
|
||||
"Timeout in seconds after which the task will be cancelled": "Délai d'attente en secondes après lequel la tâche sera annulée",
|
||||
"For complex schema, you can use advanced mode.": "Pour le schéma complexe, vous pouvez utiliser le mode avancé.",
|
||||
"The base URL to start crawling from.": "L'URL de base pour commencer à explorer.",
|
||||
"Maximum number of pages to crawl. Default limit is 10.": "Nombre maximum de pages à explorer. La limite par défaut est de 10.",
|
||||
"Only return the main content of the page, excluding headers, navs, footers, etc.": "Renvoie uniquement le contenu principal de la page, en excluant les en-têtes, les navs, les pieds de page, etc.",
|
||||
"Enable to send crawl results to a webhook URL.": "Activer pour envoyer les résultats d'exploration à une URL de webhook.",
|
||||
"Properties for webhook configuration.": "Propriétés pour la configuration du webhook.",
|
||||
"The ID of the crawl job to check.": "L'ID de la tâche d'exploration à vérifier.",
|
||||
"The webpage URL to start scraping from.": "L'URL de la page Web à partir de laquelle commencer à gratter.",
|
||||
"Include and crawl pages from subdomains of the target website (e.g., blog.example.com, shop.example.com) in addition to the main domain.": "Inclure et explorer les pages des sous-domaines du site web cible (par exemple, blog.example.com, shop.example.com) en plus du domaine principal.",
|
||||
"Maximum number of links to return (max: 100,000)": "Nombre maximum de liens à retourner (max: 100,000)",
|
||||
"Authorization headers are injected automatically from your connection.": "Les en-têtes d'autorisation sont injectés automatiquement à partir de votre connexion.",
|
||||
"Enable for files like PDFs, images, etc..": "Activer pour les fichiers comme les PDFs, les images, etc.",
|
||||
"Simple": "Simple",
|
||||
"Advanced": "Avancé",
|
||||
"GET": "OBTENIR",
|
||||
"POST": "POSTER",
|
||||
"PATCH": "PATCH",
|
||||
"PUT": "EFFACER",
|
||||
"DELETE": "SUPPRIMER",
|
||||
"HEAD": "TÊTE"
|
||||
}
|
||||
Reference in New Issue
Block a user