LongCut logo

Tout comprendre sur Databricks 😎 (#167)

By DataGen - Robin Conquet

Summary

Topics Covered

  • Databricks excelle en industrialisation, pas en exploration
  • L'open source comme arme stratégique
  • Adoption et gouvernance doivent croître ensemble
  • Fabric et Databricks sont complémentaires
  • Les fondamentaux surpassent la tech brillante

Full Transcript

le leakehous donc c'est un concept qui a été au début poussé par databak et au départ databriak avait ce premier branding un peu typé ml mais il y a eu un pivot à un moment donné qui s'est

fait aussi vers le Data engineering j' t' curiux pour qu'on comprenne un peu mieux les différentes briques que tu nous dessines la stack data qu'on pouvait mettre avec databrix databrick c'est

toujours construit comme étant une boîes par des TCOs pour des TCOs quand on a des des vrais enjeux sur de la perf et des coups euh databriak c'est notre

solution clé quoi aujourd'hui je reçois Frédéric qui est un expert sur la technologie databrix et qui a d'ailleurs monté un cabinet de conseil spécialisé

sur databrick et Microsoft à savoir dataatory hello Frédéric ça va ça va super je suis ravi de te recevoir sur le Podcast cet épisode est rendu possible par dataatory aujourd'hui l'objectif

c'est que tu nous fasses une Masterc sur la mise en place d'une stack datata avec databrick mais avant ça est-ce que tu peux nous dire comment tu t'es retrouvé toi à monter un cabinet de conseil et à

te spécialiser sur databrick Oh langue histoire euh en plus moi j'ai un parcours super eclectique j'ai commencé euh ma carrière en jeux vidéo dans le game design chez Ubisoft à Monreal et puis je suis passé par la finance et

puis après je suis arrivé donc en France parce que je suis Canadien à la base je suis arrivé en France peut-être une dizaine d'années et je boissais donc dans le conseil en data dans une entreprise qui s'appelle ulidia avec ulidia donc un moment donné on a voulu

euh faire une une une offre vraiment dédiée à à Microsoft parce que c'est une technologie qui prenait de l'ampleur et donc on a décidé donc de lancer datatory

euh avec un partenariat avec ulidia donc on reste une forme de Data family et donc pendant longtemps c'est spécialisé donc sur cette stack Microsoft et nous notre ADN c'est vraiment une ADN très

Analytics bi grande entreprise ce genre de chos tout le volet Microsoft marchait bien il y avait por B et tout mais côté en fait backend il y a plus de faiblesse et Microsoft le voyait eux-même ils ont

investi en fait dans databrix grosso modo Microsoft est devenu actionnaire en partie dans dans databrix et l'ont intégré comme produit de premier plan pour tout le backend sur la stack Azure

et c'est à ce moment-là en fait que nous on a commencé à s'intéresser à databrix et que aujourd'hui c'est une des des briques les plus importantes qu'on a dans l'outil d'attacher Microsoft tuux

peut-être qu'on rentre dans le vif du sujet dans quel contexte les entreprises mettent en place databrick il y a plusieurs types de contexte le contexte prvé mais qui arrive jamais c'est qu'on parle d'une feuille blanche ça va arriver sur des startups mais dans les

fait c'est c'est c'est plus rare les contextes qu'on voit le plus ça va plutôt être des contextes sur soit une migration une migration dans le cadre d'une modernisation il y a un existant

un PR ce genre de chos là ou même de plus en plus on voit des migrations cloud à cloud c'est-à-dire que il y a une autre plateforme donc il y avait des choses par exemple sur Microsoft qui étaient un peu vieillo donc il ont beaucoup migré sur databrix toute une

guerre entre snowfleake et databrick aussi donc il y a eu des migrations un peu dans les deux sens et tout le dernier cas qui est assez classique aussi c'est dans lequel il y a une data plateforme autre et on va vouloir se servir de databric comme une brique

complémentaire pour aller chercher des use cas un peu particuliers et ça aussi donc ça va être quelque chose qu'on va voir ah oui et là dans ce cas-là on va être sur un modèle peut-être plus hybride où on garde par exemple d'autres

briques de Microsoft ou de snowflake ou peu importe et on va avoir dat bricks qui va venir juste pour un use case spécifique est-ce que la montée de l'IA qui a été remis au devant de la scène

avec les A généraat selon toi vient accélérer aussi l'adoption de la technologie databrix moi j'avais l'impression que le

besoin en nia pousser les entreprises à adopter de plus en plus les lhous qui permettent de centraliser en fait les données dont on va avoir besoin aussi

bien pour des cas d'usage plutôt Ia data science avec plein de données nonstructur et cetera et qui va venir aussi centraliser les données dont on va avoir besoin pour un Data Warehouse et donc ça commencait à être très attractif

en gros comme technologie pour les entreprises le lakehous donc c'est un concept qui a été au début poussé par databriak dans ses premières itérations on regardait ça et on se disait attends est-ce que ça va marcher est-ce que ça va pas marcher aujourd'hui c'est c'est

évident que c'est un pattern qui a qui a vraiment bien pris de l'ampleur surtout en tout cas sur les stacks Azure c'est le pattern de base qu'un peu tout le monde utilise et qui a été vraiment mis de l'avant par par databrix et au départ

databrix avait ce premier branding un peu typé ml effectivement ça vient un peu de l'historique d'où vient databrix mais il y a eu un pivot à un moment donné qui s'est fait aussi vers le Data

engineering et aujourd'hui j'ai pas les chiffres exact en tête mais je suis pas mal certain que le volet data Engineering est plus présent et plus fort sur databrix que le volet ml comme tel même si le volet ml reste quand même

très présent et très historique sur la plateforme on reviendra après sur un peu les avantages de databrix par la suite avant ça je t'ai curieux pour qu'on comprenne un peu mieux les différentes briques que tu nous dessines voilà la

stack d'A qu'on pouvait mettre avec ave databck donc databrixs c'est euh une data plateforme et donc c'est souvent le cœur d'une architecture data qu'on va voir dans l'entreprise ça va être

vraiment ce qu'on va appeler le backend là où les données reposent et le principal moteur de compute à cause de ça on est capable de faire énormément de choses via cette plateforme là en natif mais souvent on va vouloir donc mettre

des briques un peu complémentaires en fonction de nos besoins nous sur Azure et vu les use case qu'on fait beaucoup euh les deux trucs qu'on voit presque tout le temps ça va être du Azure data Factory ADF et du bi donc ADF ça va être

tout ce qui va faire l'ingestion de la donnée dans le lakehous et on va pouvoir faire de l'orchestration aussi avec même si databrick aussi c'est ces outils pour faire de l'orchestration et à côté de ça

donc on va ensuite restituer cette donnée donc on va pouvoir l'exposer soit en self service soit via du reporting avec du port bi et donc ça ça va être un peu les trucs un peu classique après il

va avoir plein d'autres choses en fonction de nos besoins qu'on va pouvoir voir si je t'arrête du coup une seconde sur cette première peut-être version de St assez basique finalement avec trois composants si je schématise tu peux déjà

finalement commencer à faire finalement tout un tas de cas d'usage notamment Analytics et où tu vas avoir donc tu le disais en entrée donc ADF qui sont finalement un peu les les connecteurs

côté Azure qui permettent de prendre la donnée des sources et de l'envoyer dans ton dat Lake ou ton lakehous et ensuite tu vas avoir databricks qui là et le lout te permet de faire tes

transformations et cetera et après tu vas venir les visualiser avec power bi et ce que je comprends c'est aussi que là les brick vous que vous allez privilégier ça va être power bi et ADF parce que ce sont finalement les

technologies Microsoft et Azure et que vous de par aussi votre passé de Microsoft vous êtes spécialisé sur l'usage de databriaks dans un environnement Azure quoi oui tout à fait c'est-à-dire que si vous avez la même

stack sur WS bah ça sera pas du tout la même chose sur Google et pour le coup databriak c'est disponible sur tous les cloud mais je pense un point important à rappeler c'est qu'en général databx de toute façon ne se suffit pas à lui-même c'est toujours une technologie qui est

qui qui vient s'appuyer sur des cloud en général quoioua mais il y a beaucoup de choses qui peut être fait c'està-dire que là il y a plein d'autres briques sur lequel on va pouvoir s'appuyer et même même ADF je veux dire on pourrait techniquement se passer d'ADF si on a

envie de tout coder soi-même mais dans le cas d'ADF ou dans le cas de d'autres briques pour faire des connecteurs par ex fatr ou ce genre de chose il y a un gain de temps et donc un gain d'efficacité à passer par ce genre de

partenaire là et oui databrick facilite la vie et tout un écosystème de partenaire dans lequel les équipes peuvent aller euh une des briques qui va monter le plus récemment ça va être la couche de transformation qui va être

faite sur DBT aujourd'hui il y a beaucoup de gens qui ont envie de travailler avec DBT parce qu'il y a plein de choses qui peuvent être faites sur la standardisation du code la

modularité du code euh et donc la la méthode de travail DBT souvent ça va être une brique qu'on va voir assez classique même chose sur Azure on va voir beaucoup d'ADF mais on peut voir

aussi du airflow pour tout ce qui est orchestration qui est un une des briques classiques d'orchestration qu'on voir dans les stack data s'il y a beaucoup de ML bah là ça va être souvent du Data et

cou en France il y a a un vrai travail qui est fait en databrix et data et cou aussi et puis après quand on rentre dans les grands groupes là on va avoir des questions de gouvernance donc même si databrick ça sa'brique Unity catalogue

qui fait le travail sur plein de cas de gouvernance fois les entreprises vont vouloir aller un cran plus loin avec du colibra avec du privacera ou ce genre de

chos pour justement s'assurer que la plateforme reste saine et utilisable à même dans des très grands déploiements oui donc là le Unity catalogue c'est le Data catalogue qui va permettre

notamment de référencer toutes ces données de faire le lien entre les données peut-être de documenter ce qu'on appelle le Data lineage donc c'est un peu quels ont été les différents stades de transformation de la donnée le

dictionnaire un peu des des utilisateurs de la donnée dans l'entreprise pour s'y retrouver un petit peu dans tout ça ouais et puis ce qui va se passer beaucoup c'est que évidemment on a notre workspace dans lequel l'équipe va travailler mais à un moment donné on va

vouloir avir différents workspace pour les différents environnement de de travail de test prod on va voir potentiellement plusieurs équipes et là un un moment donné il va avoir une multiplication de de de ces

environnements de travail et ça va nous prendre quelque chose pour unifier tout ça et ça va être le travail d'Unity catalogue ma prochaine question vu que finalement à la fin on a toujours un peu

le mêm modèle de stack voilà pourquoi partir sur databrix plutôt que sur stoflek ou plutôt que sur bigquery et cetera donc peut-être qu'on on fasse une

passe sur les difficultés ça peut-être les inconvénient et en face dans un second temps les avantages de databrix je pense que les deux questions se répondent un peu en même temps et ça vient du positionnement de databriak

Versus les autres data platformes ma perception personnelle sur la chose c'est que databriak c'est toujours euh construit comme étant une boîte par

des TCOs pour des TCOs et il y avait cet ADN de bon vous faites plus du du sparkon prems ou vous gérez tout votre cluster de serveur à la mano donc on

vous fait abstraction tout ça mais quand même va falloir être un petit peu technique pour utiliser databrix comparativement par exemple un positionnement de snowflex parce que là luux est vraiment léché il va avoir plein de facilités de de de travaill

tout ça et parce qu'ils étaient dans ce positionnement là ils sont beaucoup ancrés sur bah on va vraiment faire le produit que les Data h ont envie

d'utiliser nous on a fait quelques benchmark entre autres à l'époque est-ce qu'on regardait vraiment le COS per compute de projet réel on a refait des projets des query sur euh plusieurs

techno et on regardait en fait les performances et le coût par performance parce qu'à un moment donné avoir de la performance c'est facile dans cloud on juste à payer plus mais si on a un budget x comment est-ce que ça ça ça réagit et là-dessus databrick cétait

très très fort le positionnement qui s'est qui s'est dégagé par la force des choses c'est un positionnement d'industrialisation et c'est là aussi d'ailleurs on va le voir en complément d'autres dataapateformes est-ce qu'il va avoir des dattas plateforme qui vont

être très fort sur l'exploration sur le roquetage adoc sur ce genre de choses par contre si vous voulez faire du synops bien précis et vous allez envie d'avoir un très bon rendement de performance de coût performance et tout

databrix reste un outil qui est super intéressant à regarder donc si vous avez des jobs que vous savez qui tourn on veut l'optimiser et tout euh ça va être ça va être un un très bon outil à

utiliser et à côté de ça bah l'inconvénient c'est que euh il Mar un peu plus haute au départ la marge va être un peu plus haute et au début même même l'interface ils sont améliorés sur

le truc mais j'ai j'ai j'ai un excellent pote qui est c dans une boîte de Data aussi qui était très typé snflek qui encore très typé snfleake mais pendant longtemps sa perception de databrick c'est ah oui c'est c'est ton machin qui

lancer notbook ah non ça va un peu plus loin que ça quand même mais ça ça restait l'image du marché quoi ça restait un truc dans lequel c'était pas si évident de voir c'était quoi exactement cette cette position là que

databrix essayit d'aller chercher et nous aujourd'hui quand on a des des vrais enjeux sur de la perf et des coups databri c'est notre solution clé quoi c'est super intéressant parce que tu as

presque l'impression que du coup ça dépend alors peut-être de la culture à la base mais aussi peut-être de la maturité de la boîteis je dis de la culture c'estectivement si tu as plein de Data et que du coup même pour faire tespqu

ils vont être capable de dérouler rapidement sur du dat brick bah tu vas pas perdre du temps enfin tu un peu ce qu'on appelle parfois le time to market des cas d'usage ils vont pas s'allonger parce qu'en fait tu vas être capable de

dérouler et donc ça va revenir à peu près au même par rapport peut-être à un snoflek ou un bigquery qui sont des plateformes connues pour leur simplicité mais en revanche c'est vrai que si tu es dans une boîte qui peut-être n'a pas ces équipes là et et si tu es sur une phase

où tu es encore beaucoup dans l'exploration de nouveau cas d'usage et cetera c'est là que databrix peut peut-être faire un petit peu peur puis après dans des dans des grandes structures parfois ils ont un peu tous les providers en parallèle donc peut-être qu'en fait ça fait un peu

partie de leur stratégie de se dire tiens garde des plateformes peut-être qui sont plus connu pour leur simplicité pour tout ce qui va être prototypage proof of concept et cetera et puis sur les use cas sur lesquels on passe plutôt sur de l'industrialisation on commence à

avoir de la visibilité sur plusieurs années parce que ça y est ça tourne on a fait les preuves de d'impact et cetera tac on on décale tout ça plutôt vers databrick super intéressant en tout cas euh ce dont tu parles et c'est vrai que

là-dessus c'est marrant parce que j'en avais parlé avec databrick à l'époque où ils étaient venus sur le podcast et effectivement ce positionnement qui leur collait encore à la PE enseignement de

plateformes complexes mais qui est en train de changer parce qu'on le voit notamment avec pas mal d'annonces qui sont en train de mettre en place tend vers de plus en plus de simplification

euh tu vois on en parlait d'ailleurs avec ch bleffari je sais pas si tu vois qui est le staff data engéer qui écrit la newsletter bleff qui est assez connu en France et on a fait un épisode l'épisode 145 qui est sorti il y a

quelques temps sur justement les grandes annonces de databrick et snowfleake dans les derniers sommets et on voyait qu'en fait databrick il y avait quelques éléments qui montraient qui tendaient vers plus de simplification notamment

avec ce qu'ils ont sorti autour paremple de Spark du fait que voilà ils allaient proposer des services de plus en plus managé justement tu aurais plus du tout à gérer tes clusters des choses comme ça et cetera et et c'est marrant parce que

de l'autre côté on voyait qu'en revanche snowfleake était toujours connu comme étant une plateforme assez simple d'utilisation était quand même aussi tenté de tendre vers un peu plus un

positionnement de de caisse à outil où tu pourrais faire plus de choses lancer de plus en plus de choses dans snowflake et donc on le voyait aussi avec toutes les annonces qu'ils ont lancé le fait qu'ils allaient supporter iceberg et cetera et que finalement ils étaient eux

à l'inverse en train de faire un peu le le chemin opposé et on voyait une espèce de convergence un petit peu du marché vers ce qui allait être les plateformes de demain donc un mix un peu de on pourrait écrire un bouquin sur euh la

relation entre databriak et snowflex et on pourra en écrire un autre aussi sur la relation entre Microsoft et databrix je pense qu'on en reparlera mais il y a aussi là beaucoup de choses qui sont assez intéressantes databrix depuis le

début a un vrai commitment sur l'Open Source pour plein de raisons mais euh ça fait partie de leur ADN souvent on va voir des boîtes qui vont lancer des choses open source et puis graduellement ils vont les Locker derrière différents

trucs donc il va voir la version premium il voir le machin mais ils gardent l'Open Source pour tirer les gens et ensuite après tout leur RD ils vont la mettre derrière un pwall databrix fait

un peu le chemin inverse là ils viennent d'annoncer par exemple que Unity catalog qui était quand même un de leurs avantages concurrentiels clé passe en open source et donc ça montre en quelque

part qu'il se disent ok en fait on va mettre à disposition des outils on a tellement confiance sur notre capacité de faire évoluer ses outils par rapport à la concurrence que c'est bon vous

pouvez utiliser nosre truc parce que ce qui nous intéresse d'abord et avant tout c'est que les clients soient capables d'utiliser nos choses de façon facile et donc si d'autres personnes ont besoin de se brancher dessus il y a pas de problème allez-y et ça c'est une

différence assez fondamentale mais qui joue aussi sur sur la compétition parce que ceux qui ont compris ça très très vite ça a été Microsoft qui ont dit ah bon donc vous vous misez sur Spark vous

misez sur le las vous misez sur Delta ben parfait on va faire pareil et donc là il y a eu cette coopétition qui s'est mis en place entre les deux et peut-être est-ce que toi tu as d'autres conseils du coup à partager à des les entreprises

pour réussir justement à mettre en place databricks ça va être de grosso modo euh farirecoabité adoption et gouvernance grosso modo ce que ça veut dire c'est

que il va falloir que ces deux concepts là quel point c'est déployé et à quel point c'est c'est gouvernerés grandissent ensemble si vous commencez un truc parce que vous poussez à fond la

gouvernance et que il y a zéro adoption et que là dès que vous voulez faire un truc vous avez des pages et des pages à remplir de cahiers de formulaire et tout ça vous allez tuer votre adoption il va avoir une résistance au changement qui

va être d'autant plus forte à l'inverse si on met toute notre énergie sur l'adoption elle est Z c'est facile bah ça peut vite devenir un peu chaotique et donc de faire grandir ces deux concepts

là ensemble ça reste un truc qui vaut la peine et le deuxième c'est bah c'est c'est tout bête mais se former euh mine de rien surtout sur des plateformes là où est-ce qu'on a vraiment la main sur

plein de choses oui ça ça prend du temps à rentrer dans le chose c'est un investissement qui vaut la peine de faire de comprendre la techno il y a tout un parcours de certification très complet sur databriak qui vaut la peine

de faire et pour s'assurer que quand on le déploie on le déploie bien et que on s la plateforme au maximum quoi avant qu'on se dirige vers la fin de cet échange est-ce qu'il y a une ou

plusieurs tendances que tu observes sur le marché dont tu souhaiterais parler peut-être notamment en lien avec databrix par exemple alors là je sais que c'est le moment où je suis censé dire j mais en fait j'ai pas envie de

parler de ça j'ai envie de vous parler de compétition et en particulier donc ce truc entre databrick et Microsoft donc databrick avait pris ce chemin de Spark

de Lake house de Delta donc plein de techno qui étaient open source et Microsoft ensuite a dit bah c'est des supers idées on va faire une plateforme un peu similaire ils ont appelé ça fabrique je caricature je vulgarise mais

grosso modo ils sont venus se positionner sur une place de marché qui était finalement très similaire et qui a rendu tout le monde peut-être un peu mal à l'aise en se disant ok vous êes vous

êtes partenaire vous êtes dans le capital mais est-ce que vous en es just servi comme une boîte de RD pour ensuite pousser votre propre produit parce que Microsoft effectivement a des parts dans databrix exact ok j'avais oublié ça et

donc donc un moment donné ouais il y avait une vraie une vraie question par rapport à ça et on a même eu la question de nos clients attendez nous on vient d'investir sur databrix maintenant on nous parle de fabrique est-ce que ça

vaut la peine de faire desimmigrations et tout et nous en fait il s'est passé un truc où est-ce que on s'est rendu compte que vu que toutes ces ces plateformes là étaient relativement open

source et jouent relativement bien entre elles et malgré le fait que il y avait beaucoup de choses qui étaient similaires elles avaient toutes un peu leur petites différences par exemple databrix très très fort sur tout

ce qui est industrialisation tout ce qui est traitement un peu lourd un peu connu ça permet d'avoir un cosper compute qui est super intéressant à côté de ça fabrique

bah c'est globalement power bi++ encore une fois je vulgarise de fou mais c'est pas grave mais euh donc vraiment très orienté sur l'expérience utilisateur

final sur l'exploration sur la restitution et nous-même en fait on a on a choisi des architectures qui utilisent les deux même pour nos besoins en interne on est encore en train de migrer des trucs qui étaient sur fabrique vers

databrix aujourd'hui dans lequel en fait on va se servir de databrix par exemple sur certaines couches couche bronze couche Silver et quand on va être plus proche de l'utilisateur là on va faire

intervenir du fabrique et du port bi et on est capableun peu d'avoir le meilleur des deux mondes c'estàd qu'on peut avoir vraiment notre notre environnement d'age poussé sur databrix et ensuite

avoir un truc qui est plus orienté utilisateurs finaux par la suite et parce que tout le tout ça travaille sur des stacks qui sont mine de rien assez similaires ça se parle très bien et ça fonctionne très bien ensemble et donc

qu'on s'attendait à être une vraie compétition frontale qu'en fabrique a été annoncée aujourd'hui on voit beaucoup plus de complémentarité et les clients qui nous disent attendez peut-être que j'aimerais migrer tout mon

databrix vers du fabrique on dit euh c'est possible mais êtes-vous sûr de vouloir faire ça parce que nous typiquement c'est pas le choix qu'on a fait on va vous expliquer pourquoi on a pas fait ce choix là donc ça c'est une

tendance qui n'a été que possible parce que databrix a vraiment joué ce jeu de open source et que pour le coup Microsoft a suivi aussi sur ce jeu de open source et que bah là aujourd'hui les deux plateformes sont capables de

coexister et les clients sont capables d'aller vraiment chercher le meilleur des deux outils je reparle une seconde de l'épisode dont j'ai parlé un peu plus tôt parce que tu parlais au début justement de sujet open source de iceber

ou de Delta de Spark et cetera là on va pas le faire aujourd'hui parce que c'est c'est pas l'objet du jour mais justement dans l'épisode 145 Christophe bleffari il nous fait des petites explications de

ces différents concepts et pour moi qui suis pas data engéer à la base et qui était pas forcément au clair sur tous ces sujets ça m'a permis d'y voir beaucoup plus clair donc pour les membres de l'audience qui auraient envie de les creuser de mieux les comprendre

n'hésitez pas à l'écouter cet épisode écoute Frédéric on arrive sur les dernières questions est-ce que tu as une recommandation de contenu à partager à nos auditeurs ça fait très old school ce

que je vais dire mais il y a encore des des livres clés dans notre industrie il y a plein de sujet sur lequel on est capable d'avoir un petit tuto une formation sur une plateforme de

learning type plural site pendant 2 he et tout mais il y a des sujets aussi sur lesquels il faut vraiment plonger dedans que ce soit en data engineering ou sur Spark ou sur la modélisation ou sur plein de choses il y a vraiment des livres qui sont super intéressants sur

les les questions de databriaks entre autres l'équipe de databriak a été c'est en grande partie à l'origine du Spark de definitive guide qui est un énorme bouquin qui fait vraiment comment le

moteur fonctionne qu'est-ce qu'il y a à savoir comment est-ce qu'on l'optimise ce genre de choses ça c'est c'est un excellent bouquin il y a aussi donc sur des chose un peu basique mais

de la modélisation quand on fait de la BI ça fait une énorme différence et là il y a y a une Bible qui existe depuis les années début 2000 qui s'appelle data warehouse tool kit donc oui il va avoir

ce genre de livres qui sont un peu clés et ça vaut la peine de revenir dessus de temps en temps et même de de les lire une première fois et après quelques mois quelques années on repasse sur le contenu et on a tout de suite une autre

lecture en fait parce queors on peut mettre ça face à des expériences qu'on a eu et ah oui c'est vrai que ça j'aurais peut-être pu réfléchir deun manière différent je mettrai tous les liens en description et donc on passe à la suite

et donc pour ceux qui écoutent le podcast et les épisodes pe-êt récent vous savez que j'ai changé un petit peu le fonctionnement sur les dernières questions avant il y en avait trois c'était qu'est-ce que tu tu aimes dans la data qu'est-ce qui t'a le plus fait progresser quel est meilleur conseil

qu'on t' donné maintenant je demande à l'invité d'en choisir une et Frédéric a choisi la troisième quel est le meilleur conseil qu'on t''est donné vas-y Frédéric je te laisse alors le conseil

il est il va faire aussi un peu vieux roublard évidemment on parle beaucoup de tech et la tech c'est excitant c'est cool c'est shiny c'est nouveau mais en fait il y a plein de choses qui vaut la

peine d'investir entre autes sur la méthode euh le Data Management la modélisation la gestion de projets ce genre de choses là c'est des choses qui sont qui sont pas révolutionné tous les

4 matins et donc ça fait moins les blogs ça fait ça fait moins glamour mais dans les faits c'est vraiment ce qui va faire la différence à long terme sur des projets réussis et des carrières réussies et donc si vous savez que vous

avez envie de faire du Data engenering pour faire votre carrière ça vaut vraiment la peine de s'intéresser à ces sujets là parce que on fait de la data quand même depuis quelques années et que les problèmes que vous vous avez je vous garantis qu'il y en a d'autres qui l'ont

eu avant vous et il y a la réponse en quelque part et comment tu illustrerais une manière de progresser sur des sujets par exemple de méthode ça revient à ce que je disais sur sur les bouquins mais

aussi sur sur euh s'intéresser aux différents frameworks qui vont exister s'intéresser aux différents patterns qui va exister sur entre autes sur le Data Management faire des systèmes de login

faire des systèmes de chargement incrémental faire des systèmes donc tout ça ce sont des problèmes qui font la différence entre un truc qui fonctionne et un truc qui brise pas ça reste de la tech mais c'est plutôt des éléments un

peu sous-jacents un peu cachés qui sont transverses qu'on doit faire qu'on faisait déjà il y a 5 10 ans qui changent pas d'une techno à l'autre mais qui sont fondamentaux qui sont fondamentaux et ces fondamentaux là bah

ça fait ça fait toute une différence à la fin avant de conclure comment ça se passe Frédéric si quelqu'un souhaite brainstormer échanger sur la data ou plus spécifiquement sur databck avec toi

alors façon la plus facile c'est sur LinkedIn et puis sinon via le LinkedIn de datatory ou même notre Instagram on est assez facilement joignable et ça nous fait toujours plaisir de partager

les petits trucs aussi donc si vous voulez suivre les comptes quand on voit des choses sympas passer on n'hésite pas à les reposter excellent ben jeen proferai peut-être pour mettre aussi ton mail en description en plus de tous les éléments que tu viens de citer on arrive

sur la fin de cet échange j'en profite pour demander à l'audience dites-nous ce que vous avez pensé de cet épisode avec Frédéric sur databriak mettez-nous un petit commentaire quel que soit la

plateforme sur laquelle vous êtes profitez-en pour vous abonner venez également commenter peut-être les post lin qu'on fera avec fréé pour la sortie de cet épisode et puis voilà je vous dis

à bientôt merci Frédéric merci merci d'avoir écouté cet épisode si vous souhaitez soutenir le podcast vous pouvez m'ajouter sur Linkedin puis liker et commenter les posts que je fais chaque semaine pour présenter les épisodes c'est ce qui m'aide le plus à

faire connaître datajen merci et à bientôt

Loading...

Loading video analysis...