La guía paso a paso o código que encontrarás en este artículo es la resolución más eficiente y válida que hallamos a esta duda o problema.
Solución:
Data Factory ofrece un conector HTTP genérico y un conector REST específico, lo que le permite recuperar datos de extremos HTTP mediante métodos GET o POST.
Ejemplo: servicio vinculado HTTP
"name": "HttpLinkedService",
"properties":
"type": "Http",
"typeProperties":
"authenticationType": "Anonymous",
"url" : "https://en.wikipedia.org/wiki/"
He hecho esto usando Custom .Net Activities. Tenía la necesidad de extraer datos de la API de Salesforce. Tengo un escrito sobre cómo hacer esto aquí: http://eatcodelive.com/2016/02/06/accessing-azure-data-lake-store-from-an-azure-data-factory-custom-net- actividad/ está utilizando el almacén del lago de datos, pero puede almacenar los datos en cualquier lugar.
También eche un vistazo aquí para ver un ejemplo de Microsoft: https://azure.microsoft.com/en-us/documentation/articles/data-factory-use-custom-activities/
Espero que ayude.
Esto se puede lograr con Data Factory. Data Factory es útil si desea ejecutar lotes según un cronograma y tener un solo lugar para el monitoreo y la administración. Hay un código de muestra en nuestro repositorio de GitHub para que un cargador http se blob aquí https://github.com/Azure/Azure-DataFactory. Luego, el blob se puede consumir para otro procesamiento, como colocarlo en su mesa. Para hacer esto, debe crear una canalización que contenga su cargador personalizado, luego una actividad con blob como conjunto de datos de entrada y una tabla como conjunto de datos de salida.
Te mostramos las comentarios y valoraciones de los usuarios
Si guardas alguna duda o capacidad de desarrollar nuestro post te recomendamos realizar una apostilla y con mucho gusto lo observaremos.