Gedisciplineerd cash- en werkkapitaalbeheer zorgt voor goede operationele en financiële prestaties. Echter, de kwaliteit van het cash management, beheer van werkkapitaal en purchase-2-pay daalde in de 5 jaar voor de COVID-uitbraak. Een nadere analyse laat zien dat voorraadoptimalisatie de grootste uitdaging vormt, zowel in volatiele als niet-volatiele markten.

MET DUBBELE CIJFERS DE VOORRAAD OMLAAG ÉN BEHOUD OF VERBETERING VAN DE SERVICE

Decennia aan ervaring hebben ons geleerd dat direct naar de voorraden gaan, zowel de snelste als de meest zekere manier is om tot een goed presterende supply chain te komen. Voorraad bevindt zich in het hart van uw supply chain en is zowel een symptoom als een oorzaak van de supply chain-prestatie. Als u de juiste voorraad heeft, blijven uw klanten tevreden, verhoogt u de omloopsnelheid en vermindert u kosten en verspilling en speelt u cash vrij.

Bij Axisto combineren we de praktische zakelijke focus van managementadvies met het snelle analytische vermogen van geavanceerde informatietechnologie. We destilleren snel praktische inzichten uit data in Enterprise Resource Planning (ERP) systemen. Onze mensen concentreren zich op de verandermanagement uitdagingen van het implementeren en onderhouden van veerkrachtige en getrimde supply chain.

Onze unieke benadering van de supply chain stelt voorraadoptimalisatie centraal. Dit stelt ons in staat om voorraden met dubbele cijfers te verminderen en tegelijkertijd de serviceniveaus te handhaven of te verbeteren – met een hoge snelheid en een laag risico vergeleken met traditionele benaderingen.

ONZE PROPOSITIES VOOR VOORRAADBEHEER

Axisto biedt drie proposities voor voorraadbeheer: voorraadoptimalisatie, voorraadanalyses en evaluaties van voorraad leeftijdsprofiel.
Ons startpunt bij de meeste opdrachtgevers is een ‘quick scan. Op basis van slechts 3 standaardrapportages uit uw ERP-systeem kwantificeren we zowel per item als totaal het verbeterpotentieel. De output is zowel een directe kwantificering op hoog niveau van het verbeterpotentieel als de basis voor een routekaart om snel duurzame verbeteringen te realiseren.

Programma’s voor voorraadoptimalisatie

We bieden deskundige analyses en effectief verandermanagement, ondersteund door een duidelijk meetbare businesscase. Verbeteringen van voorraadposities met 20% of meer, soms veel meer, zijn meestal binnen het eerste jaar haalbaar, tegen een hoge ‘Return on Investment’.

 Voorraadanalyse

Vindt u het moeilijk om echt te begrijpen wat uw voorraadgegevens u vertellen, of wat u eraan moet doen? Heeft u optimalisatietools die moeilijk te gebruiken zijn of die resultaten opleveren waarvan u weet dat ze niet kloppen, maar u weet niet waarom? Met onze gepatenteerde technologie technologie bieden we klanten snel bruikbare inzichten in hun voorraadgegevens.

Daarnaast helpen we klanten met een reeks gerichte analyses, variërend van strategische voorraadpositionering (waar in uw toeleveringsketen moet u voorraad aanhouden?) tot het opstellen van voorraadbeleid voor artikelen die moeilijk te optimaliseren zijn, zoals reserveonderdelen, of producten die op bestelling gemaakt worden.

Beoordeling van voorraad leeftijdsprofiel

Voorraad wordt beïnvloed door bijna elk aspect van uw bedrijf. Daarom kan het op bedrijfsniveau moeilijk zijn om te weten waar de grootste kansen voor verdere verbetering liggen, of hoe u zich verhoudt tot uw concurrenten.

Axisto kan de kwaliteit van uw voorraadbeheer beoordelen. We combineren een gedetailleerde, bottom-up kwantitatieve beoordeling van uw verbeterpotentieel met een kwalitatief inzicht in uw mensen, processen en systemen, inclusief relevante benchmarks, om u bruikbare handvatten te geven waar u de volgende stap in uw prestatietraject kunt vinden.

EEN CASE

Uitdaging

Een middelgroot industrieel productiebedrijf met een sterke marktpositie en winstgevendheid had in het verleden weinig expliciet aandacht voor voorraad. Het gevolg was dat de voorraad geleidelijk toenam. Het was tijd om te handelen.

Resultaten

De voorraad werd in een periode van 3 jaar met meer dan 50% verminderd ten opzichte van de oorspronkelijke baseline, terwijl de serviceniveaus werden gehandhaafd of verbeterd. Verbeteringen in de onderliggende gegevens leidden tot een beter begrip van hoe en waarom te handelen – de vaardigheid in voorraadbeheer werd aanzienlijk verbeterd binnen de teams van de klant.

Enkele citaten

“We hebben eindelijk volledige transparantie over wat we hebben, zodat we wekelijks op feiten gebaseerde beslissingen kunnen nemen.” – Autofabrikant

Sinds de start van een programma hebben we onze voorraden met meer dan 50% verminderd.” –  Industrieel productiebedrijf

De resultaten zijn uitzonderlijk en hebben een groot verschil gemaakt voor onze cashflow.” – Mondiaal productiebedrijf

Het programma bracht een breed scala aan proceskwesties scherp in beeld, met een veel bredere impact dan alleen voorraad.” – Marktleider in discrete producten

Tegenwoordig verwachten klanten korte levertijden en hebben ze een lagere tolerantie voor late of onvolledige leveringen. Tegelijkertijd worden supply chain leiders geconfronteerd met stijgende kosten en volatiliteit. Process mining zorgt voor transparantie en zichtbaarheid in de hele supply chain en biedt voorstellen voor beslissingen met hun consequenties ten behoeve van realtime optimalisatie van stromen.

Volledige transparantie

In plaats van te werken met de ontworpen procesflow of de procesflow die wordt weergegeven in het ERP-systeem, bewaakt process mining het daadwerkelijke proces op elke gewenste granulariteit: end-2-end proces, procure-2-pay, productie, voorraadbeheer, crediteuren, voor een specifiek type product, leverancier, klant, individuele bestelling, individuele SKU. Process mining bewaakt compliance, conformiteit, samenwerking tussen afdelingen of tussen klant, eigen afdelingen en leveranciers, etc.

Zichtbaarheid van de gehele supply chain

Dashboards worden ingericht om volledig aan uw vereisten te voldoen. Ze zijn flexibel en kunnen eenvoudig worden aangepast wanneer uw behoeften veranderen en/of knelpunten verschuiven. Ze creëren realtime inzicht in de procesflow. U weet op elk moment hoeveel inkomsten er op het spel staan vanwege voorraadproblemen, wat de hoofdoorzaken zijn en welke beslissingen u kunt nemen en wat hun effecten en afwegingen zullen zijn.

 

 

 

Als de leveranciersbetrouwbaarheid op het hoogste rapportageniveau niet op het targetniveau ligt, kunt u eenvoudig in realtime naar een specifieke leverancier en een bepaalde SKU gaan om in realtime te ontdekken wat het probleem veroorzaakt. Leveranciers kunnen bijvoorbeeld ook worden gehouden aan het best-practice serviceniveau van concurrerende leveranciers.

Geïnformeerde besluiten maken en de juiste acties uitvoeren

De interactieve rapporten markeren hiaten tussen werkelijke en streefwaarden en geven details over de afwijkingen, figuur A. Door op een van de gemarkeerde problemen te klikken, kunt u een passende actie toewijzen aan een specifieke persoon, figuur B. Of het kan zelfs automatisch worden gedaan wanneer een afwijking wordt geconstateerd. En directe communicatie met betrekking tot de actie wordt in real-time gefaciliteerd, figuur C.

Fig. A, details van afwijkingen.    Fig. B, pop up voor taken. Fig. C, uitwisselen van informatie.

Samenvatting

Process mining is een effectief hulpmiddel om de end-2-end supply chain stromen te optimaliseren in termen van marge, werkkapitaal, voorraadniveau en -profiel, cash, ordercyclustijden, leverbetrouwbaarheid, klantenserviceniveaus, duurzaamheid, risico, voorspelbaarheid, enz. Doordat process mining de daadwerkelijke procesflows in realtime monitort, biedt het volledige transparantie en voegt het dus significante waarde toe aan de klassieke BI-suites. Process mining kan worden geïntegreerd met bestaande BI-applicaties en kan de rapportage en besluitvorming verbeteren. Wij zien process mining als een kernelement van Industrie 4.0.

DIT INTERVIEW IS GEPUBLICEERD DOOR THE GUARDIAN

Zoë Corby

Sun 6 Jun 2021 09.00 BST

‘AI systems are empowering already powerful institutions – corporations, militaries and police’: Kate Crawford. Photograph: Stephen Oxenbury

The AI researcher on how natural resources and human labour drive machine learning and the regressive stereotypes that are baked into its algorithms

Kate Crawford studies the social and political implications of artificial intelligence. She is a research professor of communication and science and technology studies at the University of Southern California and a senior principal researcher at Microsoft Research. Her new book, Atlas of AI, looks at what it takes to make AI and what’s at stake as it reshapes our world.

You’ve written a book critical of AI but you work for a company that is among the leaders in its deployment. How do you square that circle?
I work in the research wing of Microsoft, which is a distinct organisation, separate from product development. Unusually, over its 30-year history, it has hired social scientists to look critically at how technologies are being built. Being on the inside, we are often able to see downsides early before systems are widely deployed. My book did not go through any pre-publication review – Microsoft Research does not require that – and my lab leaders support asking hard questions, even if the answers involve a critical assessment of current technological practices.

What’s the aim of the book?
We are commonly presented with this vision of AI that is abstract and immaterial. I wanted to show how AI is made in a wider sense – its natural resource costs, its labour processes, and its classificatory logics. To observe that in action I went to locations including mines to see the extraction necessary from the Earth’s crust and an Amazon fulfilment centre to see the physical and psychological toll on workers of being under an algorithmic management system. My hope is that, by showing how AI systems work – by laying bare the structures of production and the material realities – we will have a more accurate account of the impacts, and it will invite more people into the conversation. These systems are being rolled out across a multitude of sectors without strong regulation, consent or democratic debate.

What should people know about how AI products are made?
We aren’t used to thinking about these systems in terms of the environmental costs. But saying, “Hey, Alexa, order me some toilet rolls,” invokes into being this chain of extraction, which goes all around the planet… We’ve got a long way to go before this is green technology. Also, systems might seem automated but when we pull away the curtain we see large amounts of low paid labour, everything from crowd work categorising data to the never-ending toil of shuffling Amazon boxes. AI is neither artificial nor intelligent. It is made from natural resources and it is people who are performing the tasks to make the systems appear autonomous.

Unfortunately the politics of classification has become baked into the substrates of AI

Problems of bias have been well documented in AI technology. Can more data solve that?
Bias is too narrow a term for the sorts of problems we’re talking about. Time and again, we see these systems producing errors – women offered less credit by credit-worthiness algorithms, black faces mislabelled – and the response has been: “We just need more data.” But I’ve tried to look at these deeper logics of classification and you start to see forms of discrimination, not just when systems are applied, but in how they are built and trained to see the world. Training datasets used for machine learning software that casually categorise people into just one of two genders; that label people according to their skin colour into one of five racial categories, and which attempt, based on how people look, to assign moral or ethical character. The idea that you can make these determinations based on appearance has a dark past and unfortunately the politics of classification has become baked into the substrates of AI.

You single out ImageNet, a large, publicly available training dataset for object recognition…
Consisting of around 14m images in more than 20,000 categories, ImageNet is one of the most significant training datasets in the history of machine learning. It is used to test the efficiency of object recognition algorithms. It was launched in 2009 by a set of Stanford researchers who scraped enormous amounts of images from the web and had crowd workers label them according to the nouns from WordNet, a lexical database that was created in the 1980s.

Beginning in 2017, I did a project with artist Trevor Paglen to look at how people were being labelled. We found horrifying classificatory terms that were misogynist, racist, ableist, and judgmental in the extreme. Pictures of people were being matched to words like kleptomaniac, alcoholic, bad person, closet queen, call girl, slut, drug addict and far more I cannot say here. ImageNet has now removed many of the obviously problematic people categories – certainly an improvement – however, the problem persists because these training sets still circulate on torrent sites .

And we could only study ImageNet because it is public. There are huge training datasets held by tech companies that are completely secret. They have pillaged images we have uploaded to photo-sharing services and social media platforms and turned them into private systems.

You debunk the use of AI for emotion recognition but you work for a company that sells AI emotion recognition technology. Should AI be used for emotion detection?
The idea that you can see from somebody’s face what they are feeling is deeply flawed. I don’t think that’s possible. I have argued that it is one of the most urgently needed domains for regulation. Most emotion recognition systems today are based on a line of thinking in psychology developed in the 1970s – most notably by Paul Ekman – that says there are six universal emotions that we all show in our faces that can be read using the right techniques. But from the beginning there was pushback and more recent work shows there is no reliable correlation between expressions on the face and what we are actually feeling. And yet we have tech companies saying emotions can be extracted simply by looking at video of people’s facesWe’re even seeing it built into car software systems.

What do you mean when you say we need to focus less on the ethics of AI and more on power?
Ethics are necessary, but not sufficient. More helpful are questions such as, who benefits and who is harmed by this AI system? And does it put power in the hands of the already powerful? What we see time and again, from facial recognition to tracking and surveillance in workplaces, is these systems are empowering already powerful institutions – corporations, militaries and police.

What’s needed to make things better?
Much stronger regulatory regimes and greater rigour and responsibility around how training datasets are constructed. We also need different voices in these debates – including people who are seeing and living with the downsides of these systems. And we need a renewed politics of refusal that challenges the narrative that just because a technology can be built it should be deployed.

Any optimism?
Things are afoot that give me hope. This April, the EU produced the first draft omnibus regulations for AI. Australia has also just released new guidelines for regulating AI. There are holes that need to be patched – but we are now starting to realise that these tools need much stronger guardrails. And giving me as much optimism as the progress on regulation is the work of activists agitating for change.

The AI ethics researcher Timnit Gebru was forced out of Google late last year after executives criticised her research. What’s the future for industry-led critique?
Google’s treatment of Timnit has sent shockwaves through both industry and academic circles. The good news is that we haven’t seen silence; instead, Timnit and other powerful voices have continued to speak out and push for a more just approach to designing and deploying technical systems. One key element is to ensure researchers within industry can publish without corporate interference, and to foster the same academic freedom that universities seek to provide.

Atlas of AI by Kate Crawford is published by Yale University Press (£20). To support the Guardian order your copy at guardianbookshop.com. Delivery charges may apply.