Bem-vindo à página wiki do Fabric Workshop. Esta página contém todos os links de que você precisará para o conteúdo de hoje, além de quaisquer alterações ou soluções alternativas que possam ser necessárias. Esperamos que você aproveite o dia!
- Link desta página: aka.ms/fabric-sp
- Feedback: Feedback
Portais:
- Azure Portal: https://portal.azure.com
- Fabric Portal: https://app.fabric.microsoft.com
Conteúdo Original:
- Original GitHub repo with Labs: https://aka.ms/fabricrealtimelab
- Resources Zip File (notebooks): https://aka.ms/fabricrealtimelab-resources
Acesso ao laboratório:
- Registering for labs: https://cloudweeks.learnondemand.net
- Key:
2D1C120CA9F94DD2
Conteúdos de Fabric para Parceiros:
- Microsoft Fabric Partner Community
- Learn Fabric
- Fabric Bootcamp
- Fabric Partner Resources
- Industry Dream Demos
- Analytics Campaign in a Box
- Deliver a x-IAD - In a Day Workshop
- Azure Innovate
- Fabric Featured Partner
- How to become a Microsoft Featured Partner
Alguns highlights sobre o Fabric noBuild:
- Microsoft Fabric: What's new and what's next
- Reimagine Real-Time Intelligence with Microsoft Fabric
- The mechanics of Real-Time Intelligence in Microsoft Fabric
- Integrating Azure AI and Microsoft Fabric for Next-Gen AI Solutions
Note: in today's workshop, we are skipping Lab 03: Building a DW using Pipelines.
Existem algumas alterações nos laboratórios que são abordadas nas notas abaixo.
A aplicação responsável por gerar os dados que vamos utilizar nesse laboratório usa um Azure Container Instance e um Event Hub, ambos já estão implatados no Azure. Porem, se você quiser implantar isso por conta própria, poderá fazê-lo usando sua própria assinatura do Azure (cerca de US$ 1,70/dia) ou utilizar uma avaliação gratuita do Azure Pass usando o código promocional que está disponível na guia Recursos. No entanto, para ajudar a simplificar, você pode utilizar a aplicação que já está executando, você não precisará de acesso ao Azure. Os detalhes da conexão estão incluídos aqui - cada participante é atribuído a um Consumer Group.
Se estiver usando o Event Hub do grupo, você só precisará executar essas tarefas abaixo:
- Tarefa 1: Faça login na conta do Power BI e inscreva-se para a avaliação gratuita do Microsoft Fabric
- Tarefa 2: Iniciar a avaliação do Microsoft Fabric
- Pular a tarefa 3: resgatar o Azure Pass
- Pular a tarefa 4: atribuição de função de colaborador do Log Analytics
- Pular a tarefa 5: criar conta de armazenamento
- Tarefa 6: Criar a workspace do Fabric
- Ao nomear sua workspace, você provavelmente precisará tornar o nome globalmente exclusivo. Em vez de "RealTimeWorkspace", adicione suas iniciais, seu primeiro nome ou altere o nome como achar melhor. Todos os itens do workshop de hoje irão para essa workspace.
- Pular a tarefa 7: implantar o aplicativo por meio da instância de contêiner do Azure
- Tarefa 8: Obter dados com o Eventstream
Se você quiser implantar o aplicativo gerador de ações por conta própria, siga estas etapas:
- Tarefa 1: Entre na conta do Power BI e inscreva-se para a avaliação gratuita do Microsoft Fabric
- Tarefa 2: Iniciar a avaliação do Microsoft Fabric
- Tarefa 3: Resgatar o Azure Pass
- Pular a tarefa 4: Atribuição de função de colaborador do Log Analytics
- Pular a tarefa 5: criar conta de armazenamento
- Tarefa 6: Criar a workspace do Fabric
- Ao nomear sua workspace, você provavelmente precisará tornar o nome globalmente exclusivo. Em vez de "RealTimeWorkspace", adicione suas iniciais, seu primeiro nome ou altere o nome como achar melhor. Todos os itens do workshop de hoje irão para essa workspace.
- Tarefa 7: Implantar o aplicativo por meio da Instância de Contêiner do Azure
- Tarefa 8: Obter dados com o Eventstream
Na Tarefa 6, dê um nome exclusivo para a workspace, como "Workshop-initials" ou algo semelhante:
Na Tarefa 8, certifique-se de fazer o seguinte:
- Use os seguintes detalhes de conexão do Event Hub:
Setting | Value |
---|---|
Event Hub namespace | ----------- |
Event Hub | --------------- |
SAS Name | ** ------------** |
SAS Key | -----------------= |
Consumer Group | Atribuído individualmente |
- Exclua o nome de conexão padrão e forneça um nome exclusivo na caixa de texto, como EventHub-Connection-{initials} ou similar::
Como parte dos novos recursos de Real-Time Intelligence, todos os bancos de dados KQL fazem parte de um EventHouse. Algumas capturas de tela podem não ter sido atualizadas.
No additional notes at this time.
Este é um laboratório opcional. É claro que você pode trabalhar nele se o tempo permitir ou fora do laboratório!)
Ao trabalhar com o notebook Lakehouse 2: Build Aggregation Tables, muitas etapas se concentram no uso do Data Activator para ajudar a formatar e agregar os dados. O Data Wrangler é uma ferramenta visual que gera código Python em uma nova célula do notebook. Se você quiser economizar tempo, cada uma das três etapas do Data Wrangler foi concluída e está comentada, e deve se parecer com a imagem abaixo:
Se você preferir evitar passar pelas etapas do Data Wrangler ou enfrentar qualquer desafio, poderá usar o código na célula comentada. Destaque todo o código na célula (CTRL-A) e, em seguida, descomente todo o código (CTRL-/). Isso pode ser feito para qualquer uma ou todas as etapas do Data Wrangler.
Existem 3 notebooks usados neste laboratório:
Notebook | Purpose |
---|---|
DS 1 - Build Model | Builds an ML model using Prophet, examines data, and stores model in MLflow |
DS 2 - Predict Stock Prices | Consume MLflow from a notebook |
DS 3 - Forecast All | Build predictions for all stock symbols and store in a Delta table |
O DS 1 e o DS 2 são, em grande parte, exemplos/teoria de como trabalhar com dados, avaliar os resultados e armazenar o modelo no MLflow. O DS 3 é o notebook principal que gera previsões para todas as ações e armazena os resultados na tabela stocks_prediction.
Para economizar tempo: se você estiver interessado principalmente na análise de dados, na configuração de experimentos e na comparação de execuções no MLflow, concentre-se no DS 1 e no DS 2. Se estiver mais interessado em obter as previsões e criar um modelo semântico e um relatório, considere pular diretamente para o DS 3 (que é o Exercício 3: Solução na prática no laboratório).