人工知能トランスフォーメーション 100
はじめに
重要なポイント
このリストの使用方法
Chapter name
The AI Transformation 100

The AI Transformation 100

Ideas from people we admire that JUST MIGHT improve how you lead and work

Authors

Rebecca Hinds
Rebecca Hinds, Ph.D., is the Head of the Work AI Institute at Glean and a leading expert on the future of work. Her work explores how AI and other emergent technologies are transforming organizations. Her research and insights regularly appear in publications like Harvard Business Review, Inc., CNBC, TIME, and Forbes.
Bob Sutton
Bob Sutton is an organizational psychologist and professor emeritus of Management Science and Engineering at Stanford University. He’s a New York Times bestselling author of eight books including The No Asshole Rule, Good Boss, Bad Boss, and The Friction Project. His research and writing focus on leadership, organizational change, and how to build better workplaces.

Expert insights from

Manjari Agochiya
GenAI Strategy Lead, Uber
Michael Arena
Former Chief Talent Officer, General Motors and Dean, Biola University
Andy Ballester
Co-founder, GoFundMe and EyePop.ai
Matt Beane
Professor, UC Santa Barbara
Lindsey Cameron
Professor, The Wharton School, University of Pennsylvania
Eric Colson
Advisor and Former Chief Algorithms Officer, Stitch Fix
Kelly Daniel
Prompt Director, Lazarus AI
Al Dea
Founder, The Edge of Work
Erica Dhawan
AI Expert, Author, Digital Body Language
Tadeu Faedrich
Senior Engineering Manager, Booking.com
Melinda Fell
Founder, Complete Leader
Kyle Forrest
Future of HR Leader, Deloitte
Tony Gentilcore
Co-founder and Head of Product Engineering, Glean
Liz Gerber
Professor, Northwestern University
Amandeep Gill
Product Manager, Cvent
Cyril Gorlla
Co-founder, CTGT
Adam Grant
Professor, The Wharton School, University of Pennsylvania
Hilary Gridley
Head of Core Product, Whoop
Alexandre Guilbault
VP of AI, Telus
Nan Guo
Senior VP of Engineering, Zendesk
Reid Hoffman
Co-founder, LinkedIn and Partner, Greylock
Sonya Huang
Partner, Sequoia Capital
Arvind Jain
Founder and CEO, Glean
Phil Kirschner
CEO of PK Consulting
Perry Klebahn
Professor, Stanford d.school
Lindsay Kohler
Behavioral Scientist and Author
John Lilly
Board Member, Figma, Duolingo, and Code for America
Paul Magnaghi
Head of AI Strategy, Zoom
Michael McCarroll
CEO, Teamraderie
Sharon Milz
CIO, TIME
Lauren Pasquarella Daley
Associate VP, Jobs for the Future
Michael Pfeffer
CIDO and Associate Dean, Stanford Health Care
Hatim Rahman
Professor, Kellogg School of Management, Northwestern University
Brian Rain
Agile Coach, Slalom
Kristi Rible
Founder, The Huuman Group
Daniel Rock
Professor, The Wharton School, University of Pennsylvania
Daan van Rossum
Founder, Lead with AI
Brandon Sammut
Chief People Officer, Zapier
Ammen Siingh
Lead Solutions Engineer, Reddit
Aishwarya Srinivasan
AI Expert, Content Creator
Rebecca Stern
Interim Chief Learning Officer, Udemy
Federico Torreti
Senior Director of AI, Oracle
Adam Treitler
Manager of People Technology and Analytics, Pandora
Phil Willburn
VP of People Analytics, Workday
Howie Xu
Chief AI and Innovation Officer, Gen
Chris Yeh
Cofounder, Blitzscaling Ventures and Coauthor, Blitzscaling
Lily Zhang
VP of Engineering, Instacart
And more

Introduction

There’s no shortage of AI promises. Faster productivity and innovation. Lower costs. CEOs making bold claims about “rightsizing” teams and “unlocking efficiencies.” Vendors pitch 10x gains while customers wait for real results. Yet, so far, in too many organizations, the hope and bluster outstrips reality.

A 2025 Boston Consulting Group study1, which surveyed more than 280 finance executives with AI experience in large organizations, found the median reported ROI from AI initiatives is just 10%—well below the 20% or more many were targeting.

Beware, however, of treating this, or any other study, as definitive. Estimates of AI success swing wildly across studies depending on the maturity of companies sampled, research methods used, and performance metrics assessed. It’s also notoriously hard to separate the AI hype that people report from what’s actually happening in their organizations.

That’s why we wanted to cut through the noise and see how AI is already improving how people lead and work (and where it shows promise). Our goal was to uncover practical ways that AI can make your work better, by amplifying the good parts and dampening the bad.

We collected insights from more than 100 leaders, technologists, and researchers across business, healthcare, government, and academia— and conducted live interviews with 35 of them. The result is The AI Transformation 100: our collection of 100 concrete ideas for using AI to improve how work gets done. We developed these ideas to help you navigate the human and organizational messy realities that determine whether AI solutions can be prototyped, implemented, and scaled.

Key Takeaways

In this report, we’re not serving up future‑of‑work fairy tales or breathless predictions about 2035. Many of these moves are already delivering results. Some are promising prototypes or hunches. And others are risks and hard-won lessons about what can break, backfire, or blow up.

Five big lessons emerged from our investigation:

AI amplifies, so point the megaphone carefully
A
AI doesn’t fix broken systems. It amplifies, warts and all. Drop it into a broken bureaucracy and the red tape and bottlenecks will get even worse. Put it in the hands of a curious team and you’ll get faster breakthroughs.
Don’t automate the soul out of work
B
Sure, AI can handle the grunt work. But when you start automating the craft, the judgment, the human touch, jobs collapse into hollow shells. And the soullessness can alienate your clients, customers, and employees alike.
Leaders can’t phone it in
C
AI adoption isn’t powered by mandates, training portals, or inspirational memos. It spreads when leaders roll up their sleeves and use the tools themselves. When executives model AI in their own work—drafting, debugging, questioning—it encourages others to experiment and incorporate it into their work too.
Structure eats AI for breakfast
D
Even the best tools fail when organizations use the wrong structures for the work they do. Centralize everything and you smother AI in approval queues. Decentralize everything and you get a mess of redundant bots, shadow projects, and coordination problems. The leaders who make headway flex their structures: they centralize when risk, coordination of complex work, and governance demand it. And they decentralize, delegate, and get out of the way when speed and learning matter more.
Make AI part of the work, not a side hustle
E
AI doesn’t stick when it’s treated as an “add on.” The companies getting traction embed AI in the daily rhythms that already drive work: sprints, customer queues, project reviews. When it’s part of the flow, AI can reduce harmful friction. When it’s bolted on, it often adds another layer of complexity.

How to use this list

Don’t treat these 100 ideas as a checklist. Not every idea will work for you. Borrow and experiment with solutions that seem right for you and your workplace. Skip what doesn’t fit. The value of this list isn’t in rigid adoption. It’s in sparking the conversations, critiques, and experiments that push your team to rethink how your work gets done.

If you’re not sure where to start, take the AI BS Quiz1 to help you assess whether you’re using AI to make work better, or just staging another round of innovation theater. Use it to get a read on where you stand, spark some honest reflection, and find ideas within the report to help you make progress.

If you’ve got the time, read the whole list. If not, feed it to your favorite work AI tool (the more deeply it understands how your organization works, the better), using the following prompt:
Read this report carefully and, based on what you know about me, my organization, and our approach to AI, recommend the top 10 ideas that would be most valuable for our organization to try, with specific rationale and recommended next steps.
And don’t believe everything we tell you. We don’t either. The evidence about AI in the workplace is emerging, messy, and (all too often) contradictory. Any conclusion is at best, provisional. The challenge reminds us of an old (and perhaps apocryphal) story about the Harvard Medical School dean’s warning to incoming medical students on the first day of school: “Fifty percent of what we teach you will turn out to be wrong. The problem is we don’t know which fifty percent.” That’s the right mental provisioning for approaching any advice about AI and work—including ours (although we do hope that fewer than 50% of the ideas on our list turn out to be wrong!)

Now, on to the 100 ideas.
THEME 01

Division of Labor

Who should do what—and why?
For centuries, the division of labor has been the backbone of organizational design: break complex work into smaller tasks and assign them to different people. AI is now stretching—and sometimes erasing—those boundaries. And, in some cases, it’s reshuffling who does what, which tasks get automated, and which stay human.
“Reps had to scavenge through internal systems to dig up past interactions, then scour the web for press releases and news mentions—hours of energy-sapping work before the real conversation even started. Now, an AI assistant does the digging. What once took a couple of hours now takes five minutes.”
Sharon Milz,
CIO, TIME

Start by using AI to cut administrative sludge

A smart place to begin rethinking the division of labor with AI is by tackling the least-loved burdens—like administrative sludge.

A 2024 survey of over 13,000 knowledge workers across six countries found more than half (53%1) of their time disappeared into administrative sand traps such as scheduling and rescheduling meetings, writing status updates, and chasing down routine decisions that were stalled and stuck in bureaucracy. A 2025 study2 led by Yijia Shao and her Stanford colleagues of 1,500 workers in 104 occupations confirmed this is the kind of work people want AI to take off their plates. They’re repetitive, boring, low-value, sometimes mind-numbing chores that still need to get done—and get done quickly and well.

At Time Magazine, one source of sludge was prepping for client meetings. CIO Sharon Milz shared, “Reps had to scavenge through internal systems to dig up past interactions, then scour the web for press releases and news mentions—hours of energy-sapping work before the real conversation even started. Now, an AI assistant does the digging. What once took a couple of hours now takes five minutes.”

Try this

Ask employees to nominate the most joyless, soul-draining parts of their day: chasing approvals, filling out duplicative reports, copy-pasting data between tools. Collect submissions through a Slack channel, form, or email alias. Then feed them into an AI tool to cluster patterns, spot quick-wins, and rank order tasks that are ripe for automation.

Try this

Tackle your sludge at its source: unstructured data

Why is administrative sludge so hard to avoid and remove? Often because the information needed to move work forward is trapped in unstructured data: emails, PDFs, call transcripts, wikis, chats, support tickets, CRM notes. With data scattered across formats and systems, even simple tasks turn into digital scavenger hunts.

A 2023 report by IDC1 estimates that 90% of the data generated by companies is unstructured. That’s why Box CEO Aaron Levie points to2 an obvious place to start: “Work that requires a heavy amount of unstructured data and information—documents, visual data on a screen, video content.”

Try this

Follow Workday VP of People Analytics Phil Willburn’s playbook. He told us how he cut out briefing decks and weekly update docs. Instead, unstructured data (including Slack conversations and project plan information) now flows into one AI system. His team no longer spends hours compiling updates. Now, when Willburn heads into a steering committee meeting, he asks AI to compile the brief. If he needs more detail, Willburn queries the AI and drills straight into the source. That shift has wiped out a mountain of low-value work for his team—including piecing together information, late-night slide making, and answering the boss’s barrage of “quick questions” and stray musings.

Try this

Build an agent to cut your meeting drudgery

Once your unstructured data is AI searchable, go after one of the biggest sludge factories: meetings.

Meetings spew out mountains of unstructured information: spoken words, half-baked ideas, gossip, disagreements, interruptions, offhand decisions, and unspoken cues. Parsing it all is nearly impossible. AI can catch what humans miss and save everyone from archaeology digs through transcripts and scattered notes. At Glean, one popular agent used by employees is the Daily Meeting Action Summary. It pulls action items from every meeting you had that day and delivers them in a single Slack digest.

Try this

Use AI to extract action items and decisions from meetings, not just generate transcripts. And remember, the real prize isn’t efficiency. It’s freeing up human attention for the work that matters most, like creative problem-solving, decision-making, and relationship-building.

Try this
“You’re not looking at the woman in the room to take notes anymore…I don’t have to look around and wonder, okay, who’s gonna remember all this? Now I can actually focus.”
Kelly Daniel,
Prompt Director, Lazarus

Use AI to reduce “office housework”

Every workplace runs on invisible labor: scheduling follow‑ups, taking notes, tracking action items, nudging people to hit deadlines. It’s essential but low‑reward work. And for decades, it’s been disproportionately dumped on women1.

AI can take on part of that hidden load. As Kelly Daniel, Prompt Director at Lazarus AI, told us:

“You’re not looking at the woman in the room to take notes anymore…I don’t have to look around and wonder, okay, who’s gonna remember all this? Now I can actually focus.”

Try this

Audit your team’s “invisible work.” Make a list of all the recurring low‑reward tasks that sap energy but rarely get rewarded, like note taking, deadline reminders, or follow‑up tracking, and reassign them to AI.

Try this

Make it easy for customers to talk to a real human

Some of the most vexing sludge accumulates in customer support. Much of this frustrating friction (for both employees and customers) piles up because employees need to dig through unstructured data such as old tickets, inconsistent documentation, and scattered wikis to answer questions that customers ask again and again. It’s repetitive and rules-based work, seemingly perfect for AI.

Klarna’s leaders thought so too. In 2023, this “buy now, pay later” company claimed its AI assistant could replace 700 human agents and started culling customer support staff. Yet by 2025, in a show of thoughtful leadership, they’d reversed course. “We just had an epiphany: in a world of AI, nothing will be as valuable as humans,” said Sebastian Siemiatkowski1, CEO of Klarna. “We’re doubling down—investing in the human side of service: empathy, expertise, and real conversations” said a Klarna spokesperson2.

Treating all customer support as interchangeable sludge can backfire. For some requests, most customers only care about a fast and accurate response. But when the challenge is complicated or unprecedented, or a valued customer is upset, your organization benefits by offering easy access to human judgment, empathy, warmth, and trust.

Siemiatkowski later reflected3, “It’s so critical that you are clear to your customer that there will always be a human if you want.”Indeed, 89%4 of the 1,011 U.S. consumers surveyed by cloud platform Kinsta say customers should always have the option of speaking to a human.

Try this

Audit your customer support process. How difficult is it for customers to figure out how to talk to a real person? How many clicks does it take? If it’s a confusing path, and more than two or three clicks are required, you’ve likely buried the human too deep.

Try this

Don’t let AI strip the humanity out of customer relationships

AI can draft instant replies and fully automate interactions with customers. But trust doesn’t come from such cold efficiency. It comes from the messy, emotional, and time-consuming human parts of conversation like small talk about your favorite foods and offhand jokes about your hometown team.

As one leader at Navan Travel, part of global travel company, Navan described1 a sales rep meeting with the CEO of a top-10 bank: “We met with the CEO of a top-10 bank last week. The rep knew the CFO went to Villanova and loves the Knicks. The CEO went to Boston University and grew up nearby. Somehow, he tied it all together into a joke about the Pope going to Villanova and divine intervention helping the Knicks win the championship. That kind of connection-building? AI’s not there yet.”

Try this

Don’t let AI turn every interaction into a drive-thru transaction. Use a simple rule of thumb: If the customer cares most about speed of resolution, let AI handle it. But only if it’s capable and it’s legal and ethical to do so. And don’t fool yourself into believing it is a quick and easy fix if your AI experience is lousy. As a randomized field experiment2 by Shunyuan Zhang and Narakesari Das Narayandas of the Harvard Business School found, AI agents boost customer satisfaction for routine issues when the system works well. But they fall flat when customers face repeated problems or systemic failures during interactions with chatbots—fast, polished, and unhelpful replies add to frustration. And once customers have a bad experience with a chatbot, these researchers found that if they are transferred to a human agent, customers continue to feel dissatisfied. In part, because they don’t believe they are talking to a human.

If your goal is to make someone feel respected, valued, and understood, keep it human. The small talk, offhand jokes, and other “inefficient” detours are how people decide if they like you, if they trust your motives, and if they want to keep doing business with you. They slow the transaction, but speed up the relationship. They’re good for business, and good for the soul.

Try this

Protect your distinct style, charm, and voice from generic and soulless AI

The more you lean on AI, the easier it is to lose what makes your work yours. Without clear guardrails, AI can quietly dilute your style, flatten your creativity, and make your output sound like everyone else’s.

Social media creator Aishwarya Srinivasan told us that she’s drawn a hard line: no more than 10% of her posts can be AI-generated. She’s decided that balance is just enough to get a meaningful efficiency boost without diluting her voice or sacrificing authenticity or connection with her audience.

Try this

Identify the parts of your work that carry your distinct value—the things only you can deliver, whether it’s craft, perspective, or creative judgment. Then set clear, measurable boundaries for AI’s role. For example: “no more than 10%,” “only in first drafts,” or “never for client pitches.” Make the division of labor explicit.

Try this

Beware of automating work that fuels intrinsic motivation

Just because you can automate something doesn’t mean you should. Some tasks are slow on purpose. Some are enjoyable. Some are deeply human. One Stanford study1 found that 41% of Y Combinator AI startups are automating tasks that workers would rather keep manual.

At one edtech company, a content writer described2 the fallout from a new mandate that all content had to be AI-generated: “Being forced to use AI has turned a job I liked into something I dread. As someone with a journalism background, it feels insulting to use AI instead of creating quality blog posts about education policy.”

A 2025 University of Groningen study3 across 20 European countries found a similar pattern. Workers in highly automated jobs reported less purpose, less control, and more stress—even when the work was technically easier. Workers said they felt like extensions of machines rather than skilled contributors.

Professor Matt Beane at the University of California at Santa Barbara told us that he keeps seeing this play out in software development. As AI takes over more coding, senior engineers are pushed into oversight roles: reviewing, prompting, debugging. Some like it. Others miss the craft of writing and building code.

Try this

Before rolling out AI, ask your team which tasks they enjoy and which ones they’d happily hand over. If you’re still convinced that automating work they find meaningful is the right move, replace it with other work that offers challenge, skill, and satisfaction so the job doesn’t become repetitive and mind-numbing.

Try this
THEME 02

Expertise

Who ought to be the experts now? How do you blend specialists and generalists?
For decades, expertise was locked behind titles, tenure, and credentials. Experts once had a monopoly on specialized skills. But AI is upending that, putting powerful tools in the hands of non-experts. With a few prompts, a generalist can now crank out code, draft legal language, and spin up a marketing campaign. That shift creates both opportunity and risk. AI can democratize skills. Or it can churn out a wave of overconfident amateurs who are clueless about the limitations and mistakes in their work.
“If you bring experts in too early, they’ll tell you all the reasons it won’t work. AI let [the non-engineers] show what was possible, fast.”
John Lilly,
Board Member, Duolingo

Let generalists build first, bring experts in later

At Duolingo, board member John Lilly told us about two non-engineers with no chess background who used AI tools to prototype a working chess feature in just four months. He explained to us: “They weren’t engineers. They weren’t chess experts. But they built something real, and it outpaced other internal initiatives.”

AI flipped the order of the workflow. Instead of experts weighing in early and shooting down ideas at the whiteboard stage, they stepped in later, once there was something real to react to. Lilly explained: “If you bring experts in too early, they’ll tell you all the reasons it won’t work. AI let [the non-engineers] show what was possible, fast.”

Google is using a similar approach. Head of Product Madhu Gurumurthy says1 they’re moving from lengthy Product Requirements Document (PRDs) to prototypes first. With AI-powered “vibe coding,” teams now prototype in code before drafting long proposals—speeding iteration and killing fewer ideas prematurely.

Try this

Identify one area where progress keeps stalling while your team waits for experts to weigh in. Try reducing such bottlenecks by handing AI tools to generalists and let them build early prototypes. Then invite the experts in to evaluate, refine, and (sometimes) reject those unfinished creations.

Try this
“Results come when AI engineers are embedded directly into business units. Sitting side by side with sales, ops, or support teams, they co-develop solutions with the people closest to the problems.”
Daniel Rock,
Professor, Wharton School of the University of Pennsylvania

Embed AI experts in business units

The flip side of letting generalists build first is knowing when experts need to sit shoulder-to-shoulder with the people closest to the work. A useful rule of thumb: if the workflow is exploratory and the cost of failure is low, let generalists build first. But if the workflow is critical—where errors could break compliance, expose data, or disrupt core operations—experts should be embedded from the start.

Wharton professor Daniel Rock has seen a clear pattern across AI-native organizations, as well as legacy firms like a Fortune 500 CPG company and a Fortune 100 insurance company successfully using AI to transform operations. “Results come when AI engineers are embedded directly into business units. Sitting side by side with sales, ops, or support teams, they co-develop solutions with the people closest to the problems.”

It’s not a new idea. Procter & Gamble used a similar approach during its design thinking push, embedding designers on business teams rather than in a separate silo. The U.S. Army’s Rapid Equipping Force1 did it too during the conflict in Afghanistan: They stationed technologists in combat zones to identify problems and develop prototype solutions with soldiers in settings where they worked, not for them based on suspect assumptions about soldiers’ needs.

Try this

Pick two or three frontline teams—like sales, ops, or customer support—and embed an AI engineer part-time for one quarter. Have them sit in standups, shadow day-to-day work, and co-build solutions on the spot. Don’t offload everything to them: teams should still learn to handle the low-effort wins with macros or no-code tools. Use the engineer’s time for the high-impact problems that require real engineering expertise and judgment to get right.

Try this

Beware of vibe coding the last mile (especially if you’re a novice)

Vibe coding lets novice software engineers generate code that looks usable without first mastering the fundamentals. But it often produces what Andy Ballester, co-founder of GoFundMe and now EyePop.ai, and Cyril Gorlla, co-founder of enterprise AI company CTGT, calls1 “AI slop”: cheap, auto-generated, buggy code that demos well but collapses at scale.

While both acknowledge that AI can make it easy to churn out code that’s functional, it’s often mediocre. True excellence and elegance still require human craft and years of experience. A study2 by Stanford Professor Erik Brynjolfsson and colleagues backs this up: hiring for early-career developers has fallen, while demand for mid- and senior-level engineers (35 years old and older) has continued to climb.

Several leaders we’ve spoken to describe this as the “last-mile problem”. With AI, many can get from zero to a prototype. But far fewer can carry it across the finish line: scaling, securing, and shipping production-ready systems. That final stretch takes experience and judgment you can’t vibe-code your way into.

Try this

Use AI coding tools to speed prototyping, but hold senior engineers accountable for the last mile. Put them in charge of reviewing architecture, adding error handling, running load tests, locking down security, and refining what AI and juniors start, so you don’t end up shipping “AI slop.” Try these suggestions from3 Brian Rain, an agile coach at Slalom.

  1. When reviewing AI- or junior-written code, shift the focus from syntax to substance. Ask senior engineers to review for intent, design alignment, and business purpose—not just whether the code runs. Encourage them to explain why the code works (or doesn’t), and how it fits into the bigger system, rather than only flagging if it technically executes.
  2. Prioritize technical debt prevention by encouraging senior engineers “to reject or refactor AI-generated solutions that accrue hidden complexity.”
Try this
“Our brains are built for survival, not objectivity. We’re wired to run from the rustling bush, not sit and analyze whether it’s a rabbit or a tiger. AI doesn’t have that wiring—it can calmly explore millions, even billions, of possibilities without flinching. It’s great at broadening the consideration set and ranking what looks most promising.Then humans step in with context—brand, values, and strategy—to make the final call on what deserves to exist.”
Eric Colson,
former Chief Algorithms Officer, Stitch Fix

Let AI generate the options. But have experts make the calls

The last mile isn’t just an engineering problem. In creative and knowledge domains, the test is whether the work resonates, aligns, and holds up under scrutiny. That final judgment still needs to belong to experts.

At Stitch Fix, an online clothing retailer, they’ve used algorithms1 to scan inventory and customer preferences to flag gaps—styles, colors, patterns, or fabrics that aren’t being met. AI then generated design suggestions based on those gaps. But instead of letting the system greenlight production, Stitch Fix routed those suggestions to human designers, who decided which ones dovetailed with the brand, met quality standards, and resonated with customers. The AI stretched the creative option set; the experts cut it back to what’s worth doing.

Eric Colson, former Chief Algorithms Officer at Stitch Fix had this to say: “Our brains are built for survival, not objectivity. We’re wired to run from the rustling bush, not sit and analyze whether it’s a rabbit or a tiger. AI doesn’t have that wiring—it can calmly explore millions, even billions, of possibilities without flinching. It’s great at broadening the consideration set and ranking what looks most promising. Then humans step in with context—brand, values, and strategy—to make the final call on what deserves to exist.”

Try this

Beware of letting AI close the loop on its own when expert judgment is required. Use it to provoke your experts with raw options, patterns, and experiments. Then rely on their judgment to decide what will resonate with customers and what’s worth shipping.

Try this

Beware the temptation to ignore experts

Just as with AI slop, AI can make mediocre work look deceptively polished. At Udemy, Rebecca Stern, Interim Chief Learning Officer, saw teams using AI to generate learning plans for employee development—complete with outlines, objectives, and quizzes. On the surface, the plans looked polished. Underneath, they missed the basics of instructional design (for example, sequencing concepts out of order, misaligning objectives and assessments).

That’s the danger of cutting experts out of the loop. When AI skips steps, the cracks often don’t show until the work is live. And by then, fixes are harder, costlier, and painfully public.

Try this

When work depends on deep expertise, require teams to show the reasoning and steps behind the plan, not just the AI-generated draft. And when AI is encroaching on the kind of expertise that takes years of training or certification to master, create principles, as The New York Times1 has done, requiring journalists to disclose when they use generative AI and explain how human oversight shaped the final result.

Try this
THEME 03

Roles

Which roles ought to be created? 
Expanded? Shrunk? Disappear?
The division of labor decides who does the work. Expertise decides whose knowledge counts. Roles make those choices official. With AI, some roles are stretching, others are shrinking, and a few entirely new ones are emerging. In some cases, though, the “new” roles are simply familiar jobs with AI capabilities bolted on.

Appoint AI drudgery czars

Some organizations have created formal roles dedicated to hunting down and automating the piles of administrative sludge we’ve discussed.

At Glean, members of the “Glean on AI” team work across functions internally to spot manual processes worth automating, then build a roadmap to turn them into AI-driven agents. A parallel “AI Outcomes” team runs the same playbook with customers. The model borrows from Palantir’s “forward-deployed engineer” role (engineers who work side-by-side with clients, fine-tuning products directly on the clients’ premises).

Quora has taken a similar approach1, assigning teams to systematically identify automation opportunities and convert them into AI solutions.

Try this

Appoint an AI drudgery czar (or equivalent) inside each team or function. Their job is to identify needlessly high‑friction work and automate it. Give them real authority to find it, fix it, and free people up for more impactful work.

Try this

Equip your “peer to peer” AI champions for success

Some of the most important new roles in AI adoption aren’t formal titles at all—they’re the “AI champions” or internal “AI influencers” who spread new learnings and habits peer to peer.

Babson College professor Rob Cross has found that while top-down change typically reaches just 30–35%1 of employees, pairing those formal efforts with internal influencers can be twice as effective. That’s why it’s important to find your AI champions: the people who are curious, credible, and well-connected enough to inspire others to experiment.

At PwC, part of the AI rollout included a “train the trainer”2 model. The firm designated AI champions inside each line of service. These champions volunteered to coach peers, run hands-on exercises, and adapt AI use cases to their team’s daily work.

Try this

Identify your employees who are already experimenting with AI and have influence in their teams. Within each team, ask: “Who do you go to when you want to learn how to do something with AI?” Give your champions early access to new AI models, real training, and a platform to share wins and lessons learned. Make sure champions are spread across business units so adoption grows laterally, not just top-down.

Try this

Back AI champions who do smart things, not the ones who spew out smart talk

Often, the best AI champions don’t raise their hands or get nominated by their boss—they reveal themselves through action. That’s how Uber found theirs. GenAI Strategy Lead Manjari Agochiya told us how she launched an open call for AI use cases. She told us, “It surfaced 150 ideas, but more importantly, it revealed several stakeholders across various domains at Uber who were thinking about AI, implementing it in experimental ways and were excited to share their journeys with everyone at Uber. There were around 53 in Marketing and Performance Marketing, around 30 in Legal, and several small teams across the Community Operations, Engineering, and Customer Obsession teams.” Those people who raised their hands with excitement became Uber’s first real network of AI champions.

Udemy took a similar approach. During its company-wide “UDays,” where employees came together to build AI prompts and prototypes, the team didn’t just track attendance; they watched behavior. Interim Chief Learning Officer Rebecca Stern told us, “We looked at who showed up curious. Who helped others learn. Who shared tools and tips. That lens surfaced 31 early AI champions across the company.” The doers, not the talkers.

Try this

Run a prompt-a-thon or agent-a-thon where the goal isn’t just to collect ideas—it’s to watch the behavior. Who dives in? Who collaborates? Who leaves buzzing with new ideas? Most important of all, who implements the best ideas AFTER the challenge ends? Those are your AI champions.

Try this

Use “Fleet Fixers” and “Fleet Supervisors” to coordinate multi-agent systems

As companies deploy multi-agent systems (fleets of AI agents that code, test, and coordinate with one another), University of California at Santa Barbara Professor Matt Beane and colleagues Jonathan Hassell, Brendan Hopper, and Steve Yegge note1 that the “middle” of software work is collapsing. Routine coding tasks are increasingly automated, while the real human value is shifting to oversight, coordination, and orchestration. Instead of writing every line of code, humans are now needed to manage how these AI agents interact.

As a result, Beane and team describe new human jobs emerging in this bot economy, including:

  • Fleet Supervisors act as an “air traffic controller for bots.” They monitor live agent activity and coordinate deployment so dozens (or even hundreds) of agents don’t crash into each other or stall out mid-task.
  • Fleet Fixers focus on debugging conversations between machines. Beane and team liken them to a “family therapist” for bots. They can step in when agents miscommunicate, loop endlessly, or generate conflicting outputs, tracing where interactions went wrong, and resolving issues.
Try this

In your next multi-agent project, assign one person as the Fleet Supervisor and another as the Fixer. Have them keep a running log of every time they need to step in. If those logs start filling up with the same problems—loops, duplicate work, or agents talking past each other—that’s your signal. It’s time to make those roles official and give someone the job of keeping your bot ecosystem from eating itself. And, when investing in AI agents, opt for solutions that have strong built-in agent guardrails.

Try this

Consider merging or melding specialized roles to reduce handoffs

AI is starting to collapse the walls between once-specialized jobs. In some places, work that used to require a lineup of experts—researcher, writer, designer, coder—can now be done by one person with the right AI tools.

In software, a single engineer with AI can ideate, write code, generate tests, and deploy—tasks that once required product managers, QA testers, and release engineers. In marketing, one person with AI can research, draft campaigns, design assets, and schedule posts—collapsing analyst, copywriter, designer, and campaign manager into a single role.

Krishna Mehra, a former Head of Engineering at Meta, argues1 this is a chance to “rebundle” roles. Startups are skipping layers of project managers and bloated teams and instead hiring “full-stack builders”: people who can take an idea from concept to deployment, leveraging AI at every step. As Mehra notes, these adaptive, end-to-end roles are already powering companies like Cursor (20 people, $100M ARR) and Midjourney (10 people, $200M ARR) as of mid-2025.

Try this

Map your team’s workflows and focus on the baton passes. Where do people in three or four roles each “touch” the work before it ships? Mehra recommends starting small. Spin up a tiger team and challenge them to ship something—an internal tool, a campaign, a feature—using as few role handoffs as possible. Document what worked, what broke, and what AI made easier.

Try this

Experiment with moving from many specialized “directly responsible individuals” to one generalist

Rebundling how work gets done also means rethinking who’s accountable for it. Before AI, big projects often had multiple owners or what Apple calls “DRI”s (directly responsible individuals). An engineering lead drove technical execution. A product lead set priorities. An operations lead handled logistics.

AI is starting to change that equation. Dylan Field, CEO of Figma, has noted1 that “areas that were seen as distinct phases in the product development process are now merging. Product is also blurring with design and development and potentially even parts of research.”

Tony Gentilcore, Co-founder and Head of Product Engineering at Glean, suggests that it’s time to rethink project ownership structures. Splitting DRIs made sense when each function had to manually manage its own part of the work—product chasing requirements, engineering tracking dependencies, ops managing timelines. But AI is starting to take over those mechanics. Systems can now generate status updates automatically, route tasks to the right owner, and flag dependencies before they block progress. With that administrative load off the table, having three separate DRIs, for example, can add unnecessary coordination costs.

Try this

Take one active project with multiple DRIs. Run a 90-day pilot with a single DRI accountable for the whole effort, while AI tools handle the coordination—status reports, task routing, dependency tracking. Compare speed and clarity against your old structure.

Try this
“If you were to build your function from scratch today, how would it look and operate?”
Al Dea,
Founder, The Edge of Work

Redraw roles so AI can optimize work across silos

The org chart is how we carve up roles. It slices work into boxes so decisions don’t overwhelm people. But pattern-finding and connection-mapping algorithms don’t operate within boxes. They can spot connections that traditional roles were not designed to manage.

In a 10-month study1 Rebecca Hinds did with Stanford’s Melissa Valentine, they saw such connection-mapping at a digital retailer that used AI to optimize inventory. Human merchants owned narrow categories like “plus-size denim” or “plus-size dresses.” That’s how the org chart divided the work. The AI tools (and experts), however, identified cross-category patterns that humans missed (like spikes in denim sales that predicted spikes in dress sales).

Coordination troubles flared because no one had the mandate to act on insights that crossed silos. These problems waned after leaders redrew roles—expanding managers’ responsibilities to cover broader product lines—so it was clear which managers had the visibility and authority to act on AI’s system-wide insights.

The same shift is happening elsewhere2. Some companies are consolidating product lines and platforms so AI can analyze relationships across usage, renewal, and expansion. AI might reveal that adoption of one feature predicts renewal rates or upsell potential months later. But in a traditional org chart, product managers own adoption while customer success managers own renewal. Because accountability is split, neither side can act on the full picture. Valuable AI insights fall into the cracks.

Try this

Conduct an honest evaluation of your role. As Al Dea, Founder of The Edge of Work, suggests, “If you were to build your function from scratch today, how would it look and operate?”

Then ground your vision in reality. Audit where AI is surfacing cross-cutting patterns—like when customer churn shows up in product usage data, support tickets, and contract renewals, but no single role owns the whole problem. Give one leader accountability and authority over the full span—not just fragments.

Try this
Yes, AI can write your PRDs [product requirements document], map your backlog, and even spit out a half-decent launch plan before you finish your coffee.

Turn your product managers into diplomats and conflict wranglers

AI is also transforming the role of product manager (PM). As Amandeep Gill, a PM at Cvent, puts it1, “Yes, AI can write your PRDs [product requirements document], map your backlog, and even spit out a half-decent launch plan before you finish your coffee.”

But one part of the job hasn’t changed, and won’t any time soon: creating common ground among people who are prone to disagree because of their roles and personalities. Sales pushes for speed. Engineers demand stability. Finance tightens budgets. And some people believe they are the smartest person in the room and are rarely wrong about anything. The PM is the one charged with finding common ground, soothing touchy egos, brokering trade-offs, and getting the group to move forward together. AI can draft the docs, but it can’t get a room of disagreeable people to (sometimes begrudgingly) agree on schedules, priorities, actions, and goals.

Try this

Use AI for the first-pass documentation: drafting PRDs, backlogs, and launch plans that are largely routine and formulaic given the raw inputs already available. That frees product managers to spend their time where it really counts: driving alignment, coaxing compromises from stubborn stakeholders, and keeping focus on the bigger picture. As Gill puts it, engineering and sales need PMs in the room, “preferably before the chairs start flying.”

Try this
“Solution architects have to digest so much technical matter on the front end…if you can augment that and give them the tools…they can then invest in building the trust needed so that they’re creating work ties and people are pulling them in sooner or faster.”
Michael Arena,
Dean of the Crowell School of Business at Biola University

Redesign sales and service jobs so your people spend more time with customers, not covering more territory

The solution architect is another role being reshaped by AI. Historically, people in these jobs spent months memorizing product specs and technical documentation before they were credible with customers. As Michael Arena, former Chief Talent Officer at General Motors and Dean of the Crowell School of Business at Biola University, explained to us: “Solution architects have to digest so much technical matter on the front end…if you can augment that and give them the tools…they can then invest in building the trust needed so that they’re creating work ties and people are pulling them in sooner or faster.”

But Arena also warned us of a trap. Using AI only to enable sales and service workers to handle more accounts (for example by summarizing discovery call notes in Gong and auto-generating systems architecture diagrams in Lucidchart AI) treats them like throughput machines. The bigger payoff comes when people reinvest that new-found time into customers—building trust, uncovering needs, and shaping long-term growth.

Try this

When AI shortens the technical ramp for sales and service roles, use the freed capacity to crank-up customer engagement. Redesign metrics so people’s success is measured by trust and relationship-building, not just account volume.

Try this

Make your finance leaders responsible for allocating computing resources

AI gobbles up so much computing power that it is, and ought to, change what CFOs do. Traditionally, finance leaders have been stewards of capital and labor. Now, in many companies, computing resources have been added to the list.

Lily Zhang, VP of Engineering at Instacart, told us that compute allocation—who gets access to GPUs, model licenses, and tokens—is increasingly where the biggest productivity gains or bottlenecks are created. She pointed to Meta’s CFO Susan Li, who has said1 compute is now one of the most strategically scarce resources the company manages.

Allocation decisions have important implications. Do you give every developer unlimited AI tokens, as Shopify has2, reasoning that an extra $1,000 per engineer per month is cheap if it delivers a 10% productivity lift? Or do you ration usage, as other companies do, and risk stifling adoption?

Try this

Expand the CFO’s role to explicitly cover compute allocation. Don’t bury it in IT budgets. Ask which business outcomes deserve scarce model access, and allocate accordingly. The goal isn’t to squeeze ROI out of every token today, but to treat compute as a strategic resource that the CFO manages in concert with goals set by the CEO, other members of the executive team, and the board.

Try this
“The best people are the ones that can drive the biggest transformation…but often organizations want to keep their best folks in operations.”
Alexandre Guilbault,
VP of AI, Telus

Invite and entice your best people to test AI pilots

That’s a mistake. As Telus VP of AI, Alexandre Guilbault, told us: “The best people are the ones that can drive the biggest transformation…but often organizations want to keep their best folks in operations.”

Too many AI pilots end up staffed with whomever has “extra capacity” instead of the people who could make the biggest impact. The best performers are often left out—sometimes because they’ve already mastered the task being tested as part of the pilot and dismiss AI as unnecessary. More often, because they’re buried in crucial work and leaders hesitate to pull them away to try a prototype or pilot.

When AI efforts exclude top performers, two problems crop up:

  • The system learns from the habits of average performers instead of the practices that make your best people great.
  • The influencers everyone else looks to have no stake in the outcome—so when the tool rolls out, they’re the first to shrug or resist. That stifles the spread of tools that can speed up and improve the quality of work done throughout your organization.
Try this

Rotate your best people into AI pilots, even if it hurts short-term execution. Flatter them, pay them, give them a few days off. Do what it takes to get them to sign up and give their all to the task. The short-term cost is a down payment for building systems your top performers will use and refine—and the rest of the organization will trust and benefit from.

Try this
“This [prompt engineering] feels like something everyone will need to be competent at—not work that falls solely to those with a specialized job title within the next few years.”
Kelly Daniel,
Prompt Director, Lazarus AI

Decide if prompt engineering is a role or a universal skill

As AI reshapes how work gets done, new responsibilities are popping up quickly: writing effective prompts, managing outputs, catching hallucinations, fine-tuning model behavior. Leaders face a tough call: when does a new capability deserve a formal role, and when should it stay a baseline skill?

Take prompt engineering. Some companies are hiring full-time prompt engineers. Others are folding it into everyone’s job. Kelly Daniel, Prompt Director at Lazarus AI, is betting on the latter. She told us: “This feels like something everyone will need to be competent at—not work that falls solely to those with a specialized job title within the next few years.”

This is a classic challenge in moments of transformation: codify a role too early, and you risk creating something that’s obsolete before it matures. Wait too long, and critical work drifts with no clear owner.

Try this

For every new AI task, ask: does it demand dedicated focus, deep expertise, and accountability? If yes, make it a role. If it’s something everyone should learn, treat it as a skill. Or if you do hire dedicated prompt engineers, try making them temporary roles that are designed to disappear in, say, a year.

Try this

Don’t create new AI roles as knee-jerk solutions

When AI creates new kinds of work or responsibilities, some leaders respond by inventing a shiny new role. The Chief AI Officer is a good example. Some leaders told us that, at its best, this role is designed for impact and filled by a star—someone who can set strategy, attract other top talent, shape governance, and unite teams across functions to build and implement AI tools. But too often it’s a ceremonial title—window dressing with no budget, authority, or real influence inside or outside the company.

Try this

Pressure-test every shiny new AI title with three questions:

  • Will this role drive work that would otherwise stall?
  • Will the person have the budget, authority, and access to make change happen?
  • Will creating the new AI role create more coordination tax and turf wars?

More roles mean more cost, complexity, and confusion. In many cases the smarter move is to embed AI responsibilities into existing roles, instead of handing out another title (especially if it is hollow and powerless).

Try this
THEME 04

Control

Who has power? And when should powerful people loosen the reins or get out of the way?
AI is shifting who calls the shots, whose judgment counts, and which decisions live in what roles and functions. Savvy leaders are now redrawing the lines of control: vertically (where AI sits in the hierarchy) and horizontally (which teams own which AI decisions).

Done well, such redesigns remove bottlenecks and speed execution and innovation. Done poorly, it fuels turf wars, creates red tape and stalls projects, and sends AI’s potential to die in committee.

Don’t lead an AI implementation if you don’t know how AI works

It sounds obvious, but too many leaders try to design AI structures and controls without understanding the technology or how it changes work. When leaders don’t understand AI, they make kneejerk moves. Some centralize everything under one department “for risk management” and create bureaucratic AI choke points where ideas suffocate in approval queues (often staffed by people who don’t understand AI either). Others swing to the other extreme, throwing the doors open in the name of “agility” and ending up with a random scatter of uncoordinated and non-strategic AI projects (and gaping security holes too).

Instead of theorizing and making proclamations from on high, Reid Hoffman, co-founder of LinkedIn and Partner at Greylock, built an AI clone of himself and then held conversations with it. He explained1, “conversing with an AI-generated version of myself can lead to self-reflection, new insights into my thought patterns, and deep truths.” NVIDIA CEO Jensen Huang interrogates the technology to understand how it works by asking the same question to different AI models to get the best response and even has them critique one another. He’s said2, “In areas that are fairly new to me, I might say, ‘Start by explaining it to me like I’m a 12-year-old,’ and then work your way up into a doctorate-level over time.”

Try this

If you don’t use AI yourself, you’re not qualified to decide how your teams should. Get a mentor and get hands-on like Hoffman and Huang do before you start handing down rules. Follow Wharton Professor and AI expert Ethan Mollick’s “ten-hour rule”3: Spend at least ten focused hours working directly with AI so you can experience what he calls the “jagged frontier”—the uneven, often unpredictable line between what AI can and can’t do. Prior to redesigning structures or issuing new mandates, sit with the teams building or deploying AI and watch where approvals, politics, or outdated processes are slowing them down.

Or if you don’t have the time, will, or background to do so, delegate the authority to colleagues who do. Putting the right people in charge will not only be better for your company, that way you will get credit for work that goes well rather than blame for work that goes badly.

Try this
“Unlike tools or rules that shift with each new model, your AI principles don’t expire.They give the policy a human-centered, durable back bone even as the technology changes.”
Kristi Rible,
CEO, The Huuman Group

Implement nuanced AI policies—and keep updating them

Too many companies have charged ahead with AI without writing down the guardrails and rules. A 2024 survey by Vanta1 of 2,500 IT and business leaders in the U.S., U.K., and Australia found that only 36% work in organizations that have an AI policy or are in the process of developing one.

Without guardrails, AI turns into the Wild West. Some workers freeze up because they are unsure what’s allowed and what isn’t, and worry about crossing invisible lines that trigger a reprimand or even get them fired. And when companies have inflexible and otherwise misguided AI policies, people may engage in constructive defiance to get their work done. That’s one of the main reasons a survey2 by security company Anagram found 45% of workers used AI tools that were banned by their organizations.

A single static company-wide policy isn’t the solution. New tools emerge, regulations shift, and risks change faster than any single rigid policy can cover. As one SVP at a Fortune 20 company told us, they’ve prioritized a living governance system: cross-functional steering committees, legal reviews, and guardrails that flex depending on the context (for example, healthcare data versus store operations). They’ve also built an internal portal where employees can access approved tools, request licenses, and see each tool tagged by risk level (from “safe to use” to “proceed with caution”).

When we spoke with her, Kristi Rible, CEO of The Huuman Group, emphasized that AI policies should be paired with principles that explain why guardrails and rules are in place—like “humans remain accountable for decisions” or “transparency first.” “Unlike tools or rules that shift with each new model, your AI principles don’t expire. They give the policy a human-centered, durable backbone even as the technology changes.”

Try this

Treat your AI policy like a living system. It should be easy to access, list approved tools, flag their risk level, and explain the training required. Pair it with a governance rhythm—steering committees, regular reviews—so the rules evolve as fast as the technology does. And anchor it in a set of enduring principles—like accountability, transparency, and human oversight—so the guardrails stay relevant even as the tech shifts.

Try this

Flex your organizational hierarchy

Hierarchy is one of the main ways skilled leaders control how AI decisions get made—but they treat it as flexible rather than a fixed one-size-fits-all org chart.

University of Michigan Professor Lindy Greer's research1 shows the best leaders flex the hierarchy to fit shifts in tasks and interpersonal dynamics. Teams coordinate and perform better when members report, for example, “there is a clear leader on some tasks, and on other tasks, we operate all as peers.” For stable challenges and environments, hierarchy provides clarity and coordination. But for fast-changing situations, a rigid pecking order creates bottlenecks. So, effective leaders “flatten the hierarchy.” They delegate decision-making and empower people closer to the work, so teams can act and adjust on the fly.

AI makes such flexibility even more critical because it can implement rapid changes in the speed and the scope of decisions. AI surfaces signals in real time—too fast for a rigid chain of approvals. And these signals often cut across teams, products, or platforms—which are often too broad for a single local manager to handle well.

Try this

Ask three questions before choosing to drive or delegate AI work.

  1. Where is speed more important than control and company-wide consistency? Push those AI decisions down to the front lines. Let local teams act quickly on things like dynamic pricing and customer support responses.
  2. Where have you completed the “idea generation” phase of innovation and moved to “implementation?” Developing AI solutions, as with all creative work, entails first generating, prototyping, and testing many ideas. In this phase, you get more ideas by “flattening” the hierarchy and encouraging variation. A more top-down approach (“activating the hierarchy”) works better for selecting the best ideas and assuring they are implemented consistently.
  3. Where is integration and risk management more important than local speed? Pull those AI decisions up the hierarchy. Top-down decisions may be superior, or essential, in areas including data governance, reorganizations, and cross-platform investments.
Try this

If AI is crucial to your strategy, AI leaders ought to be in the C-suite

Where AI sits in your organization's hierarchy determines the attention, resources, prestige, and, yes, power of such leaders and teams. If technology leaders (including those focused on AI) are buried three layers down, AI takes a backseat to other operational and strategic matters. But when they are in the C-Suite, AI decisions and implementations move to the top of the list.

That's why CIOs have spent the past decade clawing their way closer to the top of the org chart. From 2015 to 2023, the Wall Street Journal reported that the percentage of CIOs reporting directly to CEOs jumped from 41% to 63%1. Positioned at the top, IT has the potential to influence investment decisions, product strategy, and the organization's competitive direction.

At Blue Shield of California, in 2022, then-CIO Lisa Davis made a successful case that she ought to report to the CEO. Her increased influence helped her IT team to drive enterprise-wide technology transformations with greater speed, visibility, and measurable business outcomes. Davis explained2: “That would have never happened if IT was sitting in a back office.” She added, “Generative AI has just reinforced the need to have a technology and digital leader that understands business mission and outcomes, and how they are connected together.”

Try this

Review your current organizational design. Where do your top AI leaders reside today, and what influence do they have? If your company's future depends on AI to propel growth, transformation and strategy, then AI leaders ought to be in the C-suite. And consider using “softer” signals to bolster the power and prestige of top AI leaders such as moving their offices close to the CEOs, nudging the CEO to talk about your AI leaders, and inviting them to present your AI strategy at board meetings.

Try this

Beware that flattening your organization can make it harder to match AI's speed

Many tech giants are flattening their organizations, cutting management layers (in theory) to shrink bottlenecks and speed up AI-driven decisions. Across Corporate America, layers of management are being stripped out; median spans have jumped1 from roughly 1:5 in 2017 to about 1:15 in 2023 and appear to be still widening2.

Whether delayering helps or hurts depends on the kind of work your teams are doing. As Dean of the Crowell School of Business at Biola University and former Chief Talent Officer at General Motors Michael Arena explained to us, “What you really want [to ask] is, what work am I in? Am I heads down or heads up?…if you push the span of control too far…it breaks.” Research by Arena and colleagues3 found that “managers leading larger teams, particularly those with more than seven direct reports…[have a] relentless workload [that] reduces their availability, creating bottlenecks.”

Arena suggests distinguishing between:

  • Heads-down work: Coding, call center tasks, data processing, operating machinery or vehicles. This type of work enables wider spans of control because the work is routine, predictable, and coordination (and even employee supervision) can often be handled by AI.
  • Heads-up work: Product design, strategic planning, code reviews. This type of work depends on collaboration, judgment, and constant alignment. Flattening here risks overloading managers or starving teams of the time they need to sync-up their less predictable and more improvisational work.
Try this

Before flattening or delayering, audit how your teams spend their time. Map whether they're in heads-down or heads-up phases of work. If they're heads-down, widen spans of control and let AI absorb more of the execution load. If they're heads-up, keep spans tighter and reinvest AI's gains into coordination, judgment, and relationship-building. And beware that, despite the myths, flatter is often slower than faster, and can burn out your best leaders.

Try this

Don't treat “standardized” and “centralized” AI as dirty words

Another way to draw the lines of control is deciding how centralized—or decentralized—your AI efforts should be. One common approach is to centralize AI into a Center of Excellence (CoE). It brings consistency, shared standards, and governance. But if everything needs to flow through the CoE, you risk creating bottlenecks as every team queues up for support. On the other hand, if you lean too much on decentralization, you get the opposite problem: redundant projects, incompatible models, and fragmented security.

One CIO at a large U.S. university described their hybrid model to us. A Center of Excellence within the university's central IT department owns core AI responsibilities including integration, risk, and data infrastructure. But schools and units have the authority to run decentralized pilots for speed and experimentation. He recommended centralizing AI efforts when scale and governance matter most, and decentralizing where agility and learning are more important.

Try this

Map your AI activities against two dimensions: risk and need for experimentation:

  • High risk / low need for experimentation (e.g., data security, compliance, enterprise integrations): Centralize in a CoE for consistency and control.
  • Low risk / high need for experimentation (e.g., prompt testing, local workflow automations): Decentralize to teams so they can move fast and try new things.
Try this

Break down the walls between IT and HR

Another lever of control is redrawing the borders between functions. In 2025, Moderna merged its Human Resources and Technology departments under one leader: the Chief People and Digital Technology Officer. Tracey Franklin (Moderna's former HR chief), who moved to this new position, explained the redesign1: “Merging HR and Digital isn't just about consolidation—it's a deliberate move to close the gap between the people who shape culture and those who build the systems that support it.”

Try this

Don't let HR and IT manage AI in isolation. Work on solutions—whether through merged leadership, cross-functional governance, or joint planning—that bring together leaders and teams who are responsible for managing the people with those who are responsible for building and running your information systems.

Try this
“We're urging more companies to start thinking about what their org chart looks like assuming that everyone will have at least 5-10 agents running under them. This requires a very different way of thinking, but will become crucial, especially as the number of agents will start to take over.”
Daan van Rossum,
Founder, Lead with AI

Sketch what your org chart will look like when people manage more AI agents and fewer (if any) humans

As Moderna merged its HR and IT functions under a single leader, it also deployed more than 3,000 GPT agents1 across a variety of roles. In the coming years, it's likely that most employees won't just use AI—they'll lead small fleets of it. McKinsey2 calls this the rise of the agentic organization, where humans and AI agents operate side by side, each contributing judgment, execution, and learning. They've already seen teams of two to five humans supervising “agent factories” of 50 to 100 specialized agents running end-to-end processes. While this is not the reality for most organizations, it's a useful exercise to start sketching out.

Try this

Take inspiration from Daan van Rossum, founder of Lead with AI, which helps executives rethink their organizations for AI. He told us: “We're urging more companies to start thinking about what their org chart looks like assuming that everyone will have at least 5-10 agents running under them. This requires a very different way of thinking, but will become crucial, especially as the number of agents will start to take over. These also end up in discussions about the mindsets that need to change, especially in larger organizations where there's still a huge sense of wanting control and getting them to let go of the idea of very fixed org charts into much more fluid systems.”

Try this
THEME 05

Coordination and Silos

How does work move through—or get stuck—inside your organization?
Good coordination is what prevents an 
organization from wobbling off course. When it works, handoffs are clean, people know what to do and when to do it, time and money are saved, and everyone moves in the same direction. When it fails, you get all the familiar problems: delays and ordeals for colleagues and customers, duplicated effort, frustration and confusion, and strategies that are lost in translation. AI raises the stakes. Now you have to orchestrate not only people—but people and machines together.

Fix your systems before expecting AI to improve coordination

You can't just bolt AI onto a broken system and expect it to work. If you drop it into a flawed legacy system, the same old coordination failures that hurt productivity, innovation, and well-being—and generally drove people crazy for decades—will persist, or get worse.

In healthcare, for example, work is often fragmented into poorly connected and specialized roles and silos, leading to botched handoffs and breakdowns in information sharing. Such problems are amplified by well-meaning laws, rules, and norms for protecting patient confidentiality. These same issues now make it hard to train AI tools to improve quality and coordination in healthcare systems.

Northwestern Professor Hatim Rahman described a hospital project where his PhD student is studying the use of AI to improve access to medical diagnostics. To train AI models, large numbers of ultrasound images are required, especially images of the same patients taken over time. But decades of efficiency-driven practices in healthcare have taught clinicians to take as few images as possible. Another roadblock is getting written permission from patients to use their scans to train AI models. On top of that, imaging units that have taken different pictures of the same patient over time may lack incentives, or have a history of hostility, which undermine cooperation. And imaging techs who suspect that management will use the data to evaluate them, increase their workload, or eliminate their jobs may resist supporting AI projects. As a result, collecting the images required to train AI models is taking far longer than healthcare leaders have anticipated.

Try this

Before deploying AI, ask: What do we need to change in the organization—not just the tech—to train, use, and trust AI tools? Which rules and routines that once served us well now block progress? Which long-ignored problems might AI finally force us to fix? That may mean breaking down silos, loosening overly restrictive rules, and addressing the employee mistrust that was festering long before AI showed up.

Try this
“If you throw AI at an existing process that has gaps, you’re just scaling [dysfunction]—or bad decisions—at a higher velocity.”
Adam Treitler,
Manager of People Technology and Analytics, Pandora

Map how work is really done before you automate

Even after you tackle the structural problems that constrain AI, you’ll still run into the messy day-to-day reality of how work gets done IN PRACTICE rather than IN THEORY. Most work is propped up by informal fixes, shortcuts, workarounds, rule bending, and judgment calls that aren’t documented—and yet skilled employees use these constantly and can’t do their job without them.

For example:

  • “The system says to decline the refund, but this customer spends $2M a year so we’ll make an exception.”
  • “The system says we can’t do it. I’ll just Slack Priya directly because I know she’ll approve it.”
  • “I’ll skip step 4 so we can hit the deadline.”

If AI models don’t know how people in your organization get work done DESPITE rather than BECAUSE of the formal system, they’ll faithfully scale processes that function only because of hidden workarounds (despite a lousy “official” design), replicating and spreading broken handoffs, redundancies, and poorly written policies and decision rules. “If you throw AI at an existing process that has gaps, you’re just scaling [dysfunction]—or bad decisions—at a higher velocity” says Adam Treitler, Manager of People Technology and Analytics at Pandora.

At WestRock, internal audit VP Paul McClung first envisioned a one-click AI solution to automate their audit process. But when he mapped1 the workflow on a whiteboard, the gaps (and informal solutions) became obvious: data scattered across systems, judgment calls not to count bad lunch, and informal detours and workarounds that glued things together. In the end, his team used AI to automate specific parts of workflows (such as building risk and control matrices and generating client request lists) rather than automating the entire process.

Try this

Before deploying AI, map the workflow to understand how it really works, not just how it’s documented. Capture every step, detour, and workaround. Then decide: is this a process you can automate end-to-end, or one where it’s smarter to optimize and link a few tasks and stop short of full automation.

Try this

Stop thinking in disconnected tasks, start understanding the work

There are two powerful tools for understanding how work actually happens in organizations. First, “journey maps” take an outside-in view: showing how customers or users experience a process across touchpoints. Second, “process maps,” take an inside-out view: documenting the actual sequence of tasks, decisions, and handoffs that staff perform.

To best apply AI, you need to understand both. Journey maps1 uncover the human experience: how customers or clients travel through a system—the steps they take, and the points that feel easy, frustrating, or surprising. Process maps2 reveal how work moves through the organization from the perspective of employees who operate the system.

A 2024 study3 of stroke rehabilitation mapped how patient care unfolded from both perspectives for 130 patients. Instead of a single clean sequence, they uncovered nine different variants—including cases where discharge readiness (when clinicians judge a patient stable enough to leave hospital care) was recorded before key functional assessments (tests of how independently a patient can move, speak, or perform daily tasks). The study shows how pairing journey maps with process maps exposes both the patient experience and the messy reality of operations. That clarity is essential before layering in AI or automation.

Try this

Help each function build a process map from the insider’s view, and a journey map from the client or customer’s view. For example, Stanford d.school students4 shadowed airline customers from arrival to boarding and again after landing—discovering that waiting at the luggage carousel was the worst part of the experience. That revelation surprised airline executives, who said they never check luggage, so didn’t think much about that part of the journey.

Then ask: Which steps are structured enough for AI? Could agents such as these span the steps before and after to smooth handoffs? Pair it with a journey map that captures how customers or colleagues actually experience those same steps. Side by side, the two maps reveal both the operational reality and the human experience.

Try this

ハンドオフ前にAIを使ってハッピーパスのストレステストを行う

ハンドオフは古典的なコーディネーションのチョークポイントです。プロダクトエンジニアリングの引き継ぎでは、プロダクトチームはしばしば「ハッピーパス」を提示します。つまり、何も壊れることのない理想的なユーザージャーニーに焦点を当てることです。ありとあらゆる失敗を想定したエンジニアリングカウンターこれと同じ傾向は、IT 部門が洗練された新しいワークフローを導入したときに、セキュリティチームが、この変更によって 6 つの新たな脆弱性が生じたことを指摘した場合など、他の引き継ぎにも現れます。

職務が異なれば、性格も異なるというだけではありません。それは、彼らが仕事のさまざまな部分に集中し、報われるということです。プロダクトチームは、厳しい期日の中で派手な新機能をリリースするといった野心的な計画に対して報われる。エンジニアリングチームは、物事をうまく機能させ、リスクを見抜くことで報われる(そして責任を負う)。その結果は?プロダクトマネージャーとエンジニアの間の会議は、エッジケースや技術的な地雷についての議論が行き交い、行き詰まります。

TeamraderieのCEO、マイケル・マッカロールは、同社が開発するオンライン学習体験の流れを短くするためにどのようにAIを活用しているのかを説明してくれました。Teamraderieのプロダクトマネージャーは、エンジニアと打ち合わせをする前に、現在ではAIを使って設計を行い、以下のことを行っています。

  • 起こりそうな障害点を明らかにするエッジケースと「仮定」シナリオを生成します。
  • エンジニアがゼロから始める代わりに編集できるように、承認テストの下書きを作成します。

その結果、会議が始まる前に、作品は慎重に批評され、問題も解決されました。エンジニアは、最前線の防衛線であり、プロダクトマネージャーに背を向けていると認識されるのではなく、最も価値をもたらすアーキテクチャとスケーラビリティに焦点を当てています。

これを試して

製品エンジニアリングの引き継ぎに AI を取り入れてみてください。ミーティングの前にハッピーパスと表面障害のシナリオをストレステストしておくと、エンジニアはミーティングでバグ修正に費やす時間を減らし、システムを正しく構築する時間を増やすことができます。

これを試して

AI を活用して適切な人材をプロジェクトに参加させ、迅速に人材を見つけましょう

人員配置プロジェクトは、調整のもう1つの問題点です。あるコンサルティング会社では、コンサルタントは、履歴書全体にわたるキーワード検索、複数のデータベースチェック、一連の検証など、手作業による面倒なプロセスを経てプロジェクトのスタッフを配置していました。このプロセスは遅く、バイアスの余地がありました。履歴書に「正しい」単語が含まれていなければ、検索結果に表示されません。そして、時間的なプレッシャーにさらされていたとき、マネージャーは自分が最もよく知っていて、過去に一緒に働いたことのある人を選ぶことに失敗しました。

Work AI プラットフォーム (Glean) を導入すると、マネージャーは「リテールバンキングの経験がある候補者を 3 人見せてください」などの自然言語によるクエリを入力するだけで済みます。このシステムは、会社のナレッジベース(履歴書、プロジェクト記録、さらには作業成果物)全体を検索し、スキルが要約されたランク付けされた候補リストを作成します。

これは、スタンフォード大学のメリッサ・バレンタイン教授とマイケル・バーンスタイン教授が「フラッシュチーム」と呼ぶものへの初期段階です。1: プロジェクト準備が整った仮想グループで、たまたま対応可能な人や目に見える人だけでなく、プロジェクトが最も必要とするスキルに基づいてリアルタイムで集められます。

これを試して

プロジェクトの人員配置や、摩擦や失敗の原因を監査します。手動検索、時代遅れのシステム、またはマネージャーが既に知っている人にどの程度依存していますか?人工知能が、そうでなければ見えない組織内外のチームメンバーを特定して集めるのに役立つ、どこでどのように役立つかを考えてみましょう。

これを試して

AI を活用して、適切なタイミングでチームの幅を広げたり狭めたりするよう促す

チームが人員を配置して配置されると、疑問は、「目の前のタスクに対して正しい方法でコラボレーションしているかどうか」ということになります。適切なタイミングで適切なことを話しているのか?イノベーションの道のりの適切な時期に、いつ、どのように「幅を広げる」(幅広いアイデアを分岐させて話し合う)か、「狭める」(実装に向けて集結したいくつかのアイデアについて話し合う)かを知っていますか?

オンラインプラットフォーム(www.gigster.com)で117のリモートソフトウェア開発チームを対象に実施した調査では、カタリーナ・リックス、サミール・スリバスタバ、メリッサ・バレンタインが発見しました1 成績の良いチームは、目の前のタスクに基づいて「言論の多様性」(会話における視点、言語、アイデアの範囲)を調整したということです。創造性が求められる作品では、幅広い言語と視点を生かして、表現の多様性が高かった。しかし、仕事が実行に移ると、彼らの発言の多様性は狭まり、会話はより集中して合理化され続けました。

AIはまだ存在していませんが、初期のツールはこの方向を示し始めています。参加パターンを分析し、会話が行き詰まる時期を発見し、リアルタイムで調整を提案することさえできます。

これを試して

会議の議事録を(許可を得て)AIツールに実行し、参加状況を評価してもらいます。一握りの人が支配的になり、チームの言論の多様性が制限されたのでしょうか?グループは一つの決定事項に集まるのではなく、同じ点を中心に回ったのでしょうか?これらのインサイトを活用して、チームが目の前のタスクに適したモードでコラボレーションしているのか、創造性を重視して幅広く探索的なのか、それとも実行のために狭く焦点を絞った方法でコラボレーションしているのかを詳しく知ることができます。

これを試して

AIを活用して、うるさい人(およびその他の有害なタイプ)が会話を乗っ取るのを防ぐ

会議は、さまざまな同僚の意見を聞き、お互いの仕事がどのように組み合わされているかについて微妙な理解を深めることができるため、強力な調整ツールとなります。会議では、さまざまな専門知識を持つ人々が知識を融合させてスムーズに引き継ぎ、組織全体の作業をスピードアップすることで、調整が強化されます。しかし、このような学習や問題解決は、たった一つの声が放送時間を圧迫し、より静かな(そしてしばしば)賢い声がかき消されてしまうと不可能です。ブラバーマウスは、自分が沈黙させたり、迷惑をかけたり、他の人の時間を無駄にしたりしていることに気付かないことがよくあります。さらに悪いことに、失礼で侮辱的なメンバーが 1 人いるだけで、協力関係が崩れ、破壊的な対立が引き起こされ、メンバーを会議から退席させたり、チームを辞めさせたりする可能性があります。

スタンフォード大学では、研究者が審議プラットフォームを構築しました1 AIを使ってリアルタイムでグループダイナミクスを改善します。このシステムは参加状況を追跡し、しばらく発言していない人を誘導します。また、ライブの「毒性スコア」も計算します。メンバーによる有害な行動が検出された場合、システムはグループに確認を求め、同意すると違反者のマイクをミュートします。

これを試して

AI を単なる会議のノートテイカーとは考えないでください。これをファシリテーターとして活用しましょう。放送時間が均等になるように促し、静かな声を浮かび上がらせ、会議が脱線する前に有害な行動を報告しましょう。8人から15人の会議には、スタンフォード大学のオンライン審議プラットフォームを試してみるといいかもしれません。無料で簡単に使えます。

これを試して

誰でも自由にノートテイカーをシャットダウン

AI ミーティングボットは時間を節約できます。しかし、他の種類のソフトウェアの肥大化と同じように1、あまりにも多くの異なるボットを使用するチームは調整の負担になります。

PK ConsultingのCEOであるPhil Kirschnerにインタビューしたところ、彼はクライアント全体で続いているシーンについて説明しました。5人が会議に参加すると、3人の異なるAIノートテイカー(おそらくOtter、Fireflies、Fathom)が現れます。それぞれが、言葉遣い、タイムスタンプ、アクションアイテムが少しずつ異なるトランスクリプトを吐き出します。そうなると、コラボレーターは作業を進めるよりも、どのレコードが「正しい」かを議論することに時間を無駄にする可能性があります。そして、チーム全員で共有できる共有レコードの代わりに、「マイノート」と「マイノート」を使用することになります。

これを試して

AI会議ボットを人間の参加者と同じように扱い、役割と境界を明確にしましょう。誰が公式レコーダーになるのか、誰がアクションアイテムにフラグを立て、誰が決定をまとめるのかを事前に決めておきましょう。チームに AI ノートテイカーについて同意してもらい、ミスの処理について保証してもらいます。あなたが上司で、彼らが同意できない場合は、決定を下して伝えてください。

これを試して

AI 承認のボトルネックを排除 そして、弁護士が「はい」にデフォルト設定するのを手伝ってください

法律、セキュリティ、調達という3つのボトルネックが原因で、企業に新しいAIツールを導入する取り組みが遅れたり、急に停止したりすることがよくあります。一見単純な要求でも、そのような職務のスタッフが多負荷になったり、過度に慎重になったり、懸念事項や提案された解決策を迅速かつ明確に伝えなかったり、他の部門が自分の仕事に必要なものではなく自分の職務だけに集中したりすると、数週間、場合によっては数か月も続くことがあります。

ザピアがタックル1 このようなボトルネックは、調達、法務、エンジニアリングの各部門を担当する専任のプロダクトマネージャーを割り当て、承認を早急に進めることです。Shopifyはさらに進んだ2: 彼らは弁護士が「はい」から始める文化を築きました。Shopifyのエンジニアリング担当副社長であるFarhan Thawarが2021年にAIの採用を推し進めたとき、彼はそれが可能かどうか法務部門に尋ねませんでした。彼は彼らにそうするだろうと言って、「どうすれば安全にできるの?」と尋ねました。

Netflixの元最高タレント責任者であるパティ・マッコードが「完全に形成された成人」と呼んでいたものの力を思い出させてくれます3。」Netflixも同じような文化を築いてきました。旅行ポリシーなし、年次レビューなし、無制限の休暇です。賭けは簡単でした。信頼できる人を雇って判断を下し、会社を第一に考えることです。「問題のある人」を雇わず、間違えたらすぐに退去させてください。それこそが、官僚的形式主義を捨てて調整税を削減することを可能にしているのです。

これを試して

ゼネラルカウンセル、最高情報セキュリティ責任者、調達責任者と話し合い、AIの採用を明確な戦略的優先事項にしてください。会話の枠組みを「これを安全に行うにはどうすればよいか」というものにします。デフォルトは「なぜできないのか」ではなく「どうすればできるのか」に設定されます(ただし、「いいえ」もいくつかあることを認めながら)。この変化は、法務、セキュリティ、調達を門番から実現要因に変えるのに役立ち、AI導入における最大の調整費のひとつが削減されます。

これを試して

AI ベンダーと AI ソリューションを共同開発

あまりにも多くの AI ベンダーが、製品を出荷し、いくつかの設定を行って、そのまま離れていく、という従来のソフトウェアプロバイダーのように振る舞っています。

そのモデルはAIでは機能しません。AIのパフォーマンスはモデルだけの問題ではなく、ビジネスに関するものです。乱雑なデータ、文書化されていないワークフロー、文化的な癖、既成のシステムでは予測できないエッジケースなどが挙げられます。最高のAIプラットフォームは、テクノロジーを提供するだけではありません。彼らはどちらかというとコンサルタントのように振る舞います:

  • 彼らはあなたの組織が実際にどのように機能しているのかを理解するために時間を費やします。
  • 彼らはあなたのためではなく、あなたとソリューションを共同開発します。
  • 彼らは製品をあなたのワークフローに適応させますが、その逆ではありません。

最近の報告1 MITの研究者による** その結果、カスタムビルドのエンタープライズAIツールのうち、実際に運用されるのはわずか 5% であるのに対し、ビジネスチームと一緒に組み込んで反復するベンダーパートナーシップは、成功する可能性がほぼ2倍高いことがわかりました。この調査の欠陥は、成功率が低いことが典型的なAIイニシアチブを代表するものではないことを示唆していますが、MITの調査結果によると、ベンダーと協力して反復することで成功の確率が高まり、ガートナーを含む他の情報源からのアドバイスや証拠と一致しています。2 とマッキンゼー3

これを試して

AI の時代では、ベンダーはソフトウェアをただ出荷して立ち去ることはできません。データを理解し、ワークフローに適応し、一般的なテンプレートではなく、現実に合ったソリューションを共同開発することで、真のビジネスパートナーとしての地位を確立する必要があります。

これを試して

**MITのレポートは、公開されている300のAIイニシアチブ、52の組織の代表者への体系的なインタビュー、4つの主要な業界会議で収集された153人の上級リーダーからの調査回答に基づいており、これらはごくわずかです。評論家によると、このレポートでは「成功」を非常に狭義に定義していると指摘しています。つまり、パイロット段階を超えた展開と、P&Lへの影響を含む測定可能なKPIを、パイロットの6か月後に評価した結果です。これには、AIイニシアチブが生み出す可能性のある他の多くの形態の価値(コスト回避、効率性、品質、顧客満足、リスク削減など)は含まれていません。また、特に大規模で規制の厳しいセクターや動きの遅いセクターでは、多くのAIプロジェクトが影響を示すには6か月では不十分だと主張する人もいます。効果の蓄積が遅くなることがあります。

これを試して
「私たちは、別のレイヤーではなく、ソリューションを埋め込んでいることを確認しました。新しいUIを学んでほしいとユーザーに求めたりしたわけでもありません。誰かにジムのメンバーシップを渡すのとバックパックにベンチプレスを入れるのとでは違いがあります。」
アンメン・シン
Reddit リードソリューションエンジニア

AIを活用してトグル税を削減

従業員が AI を使い始めると、「切り替え税」が増えることがよくあります。これは、適切な文書、メッセージ、またはタスクを見つけるために常にアプリ間を行き来する人が増えるため、調整の負担が増えます。研究1 Rohan Narayana Murty氏が率いるHarvard Business Reviewのレポートによると、フォーチュン500企業の従業員は1日に1,200回以上アプリを切り替えています。著者らは、「1 年間にわたって、合計で 5 週間、つまり年間の勤務時間の 9% に相当する」と計算しています。

私たちが話をした複数のリーダーは、これを「回転椅子問題」と呼んでいます。従業員は、AI を使用するためだけに別のプラットフォームに移動することを望んでいません。Redditでは、その哲学が彼らのアプローチの指針となっています。「私たちは、別のレイヤーではなく、ソリューションを埋め込んでいることを確認しました。新しいUIを学んでほしいとユーザーに求めたりしたわけでもありません。誰かにジムのメンバーシップを渡すのとバックパックにベンチプレスを入れるのとでは、違いがあります」と、同社の主任ソリューションエンジニアであるAmmen Singh氏は言います。

これを試して

従業員が 1 日の仕事を始める場所 (電子メール、ブラウザ、CRM) をピンポイントで特定し、そこに AI を組み込んでください。人々にAIを探しに行くように頼むのはやめましょう。すでに作業している場所に埋め込んでください。

これを試して

スーパーエージェントで AI の無秩序な増加を抑えましょう

従業員はアプリ、ダッシュボード、デジタルツールに溺れ、カリフォルニア大学サンタバーバラ校のポール・レオナルディ教授が「デジタル疲労」と呼んでいる事態につながっています。過去 1 年間、ジェネレーティブ AI ツールが組織で主流になるにつれ、Asana のアンケートは1 13,000人のナレッジワーカーのうち、デジタル枯渇は増加し続けていると回答しています。主な原因の 1 つは、それぞれが独自のログイン、癖、学習曲線を持つ、連携していない AI コパイロットやツールが増え続けていることに作業員が対処しなければならないことです。

あるフォーチュン20の小売業者では、ある上級幹部が、彼らの解決策は「スーパーエージェント」だと言いました。スーパーエージェントは、舞台裏で活躍する多くの小規模な AI エージェントにとっての玄関口です。従業員は、有給休暇申請の提出、人事ポリシーとのやり取り、新しいベンダー契約の提出など、個々のタスクで個別のボットを操作する代わりに、自分が誰で、何をしていて、どのような情報が最も重要かを把握している 1 人のエージェントとやり取りできます。

真に自律的なエージェントは、これを自分で行うことができます。狭いタスクボットの集まりではなく、適応力のあるコラボレーターとして動作します。面倒なロジスティクスの処理、ワークフロー間のコンテキストの記憶、複雑なリクエストを適切なサブエージェントに自動的にルーティングします。

これを試して

連携していない AI アプリやエージェントの寄せ集めはしないでください。従業員が仕事中にどのようにアクセスするのか考えてみてください。エクスペリエンスが圧倒的だと、AIの利用は行き詰まり、効率は低下し、人々はミスを犯し、デジタル枯渇が広がります。代わりに、誰がAIを使用しているのか、何を達成しようとしているのかを理解し、適切なツールに自動的にルーティングできる、統合プラットフォームと自律型エージェントという統合レイヤーを検討してください。

これを試して

AI をサイドプロジェクトではなく仕事の一部にする

AIを副次的な実験として扱うことは、調整の負担を増やす確実な方法です。チームは最終的に 2 つの並行したワークフローをやりくりすることになります。1 つは仕事をこなすための「本物」、もう 1 つは「AI 実験」で、追加の負担はかかるものの (少なくとも短期的には) ほとんど価値をもたらさない。

Zendeskでは、エンジニアリング担当シニアバイスプレジデントのNan Guoが、最も一般的なコーディネーションリズムであるスプリントにAIを直接組み込むことで、サイドプロジェクトの罠を回避する方法を教えてくれました。アジャイル開発におけるスプリントとは、チームが仕事を計画、構築、出荷する、時間制限のある短い期間 (通常は 2 週間) のことです。Zendeskのリーダーは、エンジニアに「AIのユースケース」を探しに行くように頼む代わりに、いつものスクラムサイクルにAIを取り入れています。Guo 氏は次のように説明しています。「スクラムは私たちの日常業務の標準的なやり方です。10 月にスプリントを 1 つ選んだので、人々は実際に GenAI を実際のワークフローに適用しました。そうすれば、側面に何か追加的なものがあるだけでなく、その影響も見ることができました。」

これを試して

チームの中核となる調整サイクル (スプリント、プロジェクトレビュー、カスタマーサポートキューなど) を特定し、そこに AI を組み込んでください。AI が実際の仕事の流れの一部になれば、調整コストを削減し、生産性、意思決定、コラボレーションを改善するための活用方法を継続的に学ぶことができます。さらに、最も重要な分野でも活用できます。

これを試して
「人々はAIツールを使用して負荷を軽減し、共同作業の過負荷を減らす一方で、他の人の負担を増やすでしょう。」
マイケルアリーナ、
バイオラ大学クロウェル・スクール・オブ・ビジネス学部長

ボットにあなたから他の人に摩擦を転嫁させないでください

人工知能は人々の負担から仕事を奪うことになっています。しかし、多くの場合、負担をある人から別の人に移すだけです。

これは、このプロジェクトの面接をスケジュールしているときに経験しました。招待状は、AIアシスタントの「Kiran」から来ました。Kiranの仕事はスケジューリングを簡単にすることでした。代わりに、「彼女」はボブに不在時のメッセージがあったとしても、リマインダーでボブを怒らせました。最初、彼はキランが異常に失礼なヒューマンアシスタントだと思っていました。それから彼はキランがボットだと気づきました。

Kiran は、受信者である私たちではなく、送信者、つまり会議を予約してもらうために最適化されました。バイオラ大学クロウェル・スクール・オブ・ビジネスの学部長でゼネラルモーターズの元最高人材責任者であるマイケル・アリーナは、「人々はAIツールを使用して負荷を軽減し、共同作業の過負荷を減らす一方で、他の人の負担を増やすだろう」と警告しました。つまり、あるチームの効率向上が、別のチームの隠れた税金になる可能性があるということです。

そして、その隠れた税金は、単に時間の無駄遣いだけではなく、信頼の問題でもあります。研究者のイアン・マッカーシー、ティモシー・ハニガン、アンドレ・スパイサーが警告しているように1、AIを不注意に使用すると、いわゆる「ボットクソ」が生成される可能性があります。つまり、人々が無批判に使用する、作り上げられたコンテンツや位置がずれているコンテンツです。ボットが監視なしに行動すると、誤った情報を広めるだけでなく、摩擦も広がります。受信トレイにスパムを送信するスケジューリングボットや、不適切なデータを提供するチャットボットは、ある角度から見ると効率的ですが、認知や評判の低下をひそかに他の人に押し付けているのです。

コストは急速に積み重なり、多くの場合あなたに負担されます。リサーチ2 Paul Leonardiは、ボットが台無しになっても、責任はボットではなく、あなたにあることを示しています。人々はAIに責任を負わせません。奴らはそれを解き放った人間を捕まえる

これを試して

AI エージェントを導入する前に、「このボットはメッセージを受信する人の負担を軽減できるか」と尋ねてください。それとも負担が彼らに移るだけなのか?業務の効率化を図る中で、知らず知らずのうちに、組織やネットワーク全体で、同僚や顧客の負担を減らすのではなく、むしろ増やすような摩擦を武器にしていませんか?

これを試して
「アクセスしてはいけないドキュメントをユーザーに見つけてほしくありませんでした。アクセスできるものしか見つかりません。」
タデウ・フェドリッチ
Booking.com シニア・エンジニアリング・マネージャー

AIを使って悪いサイロを壊し、良いサイロを維持しましょう

AI は、チームや個人の作業に支障をきたすサイロを解消するのに役立ちます。しかし、すべてのサイロが悪いわけではありません。人事ファイル、法的文書、給与データの保護など、正当な理由で存在するものもあります。また、クリエイティブな仕事をする多くのケースでは、ディズニーの「イマジニアリング」のように、会社の他の部署の人々からの注意散漫や中断、不適切なアドバイスから身を守るのに役立ちます。1」子会社とロッキードの「スカンクワークス」2。」課題は、必要なプライバシー、機密保持、創造的フォーカスを保護するサイロと、不必要に作業を遅らせ、品質を低下させ、従業員や顧客を苛立たせるサイロを区別できるAIを設計することです。

そのため、たとえば、「権限レイヤー」に関するルールが非常に重要です。つまり、誰がどの情報にアクセスできるか、いつアクセスできないか、いつアクセスできるか、できないかということです。最高のAIツールはそのようなルールを執拗に適用します。ほとんどの企業のプロダクトマネージャーは、チーム間でデザインファイルを瞬時に取り込めるはずです。ただし、業績評価や給与記録などの人事記録からは除外する必要があります。

Booking.comの人事チームがAI検索に「非常に神経質」を感じていたのは、まさにこのためです。Booking.comのシニア・エンジニアリング・マネージャーであるTadeu Faedrich氏は、「アクセスしてはいけないドキュメントをユーザーに見つけてほしくありませんでした。アクセスできるものしか見つけられないのです。」

最終的に、社内システムと同じルールに従うプラットフォームを選択しました。つまり、昨日ファイルを開けなかったとしても、今日そのファイルが突然検索で表示されることはありません。

これを試して

AI ツールを評価するときは、機能のストレステストと同じくらい、権限の処理方法をストレステストしてください。多くの組織は、時代遅れまたは過度に広範囲にわたるアクセスルールでめちゃくちゃに運営されています。良いプラットフォーム3 アクセス権が開きすぎている場所 (たとえば、「リンクを知っているすべてのユーザー」に設定されているファイルや、大規模なグループで共有されているドキュメント) にフラグを立てる必要があります。また、従業員が機密文書へのアクセス権限を各自の役割で必要とする以上の権限を着実に蓄積している場合など、リスクが高まったときにも管理者に警告する必要があります。

これを試して

アウトプットだけでなく、AIの隠れた調整コストを測定

AI ツールを使うと、コードを書いたり、コピーを書いたり、自分で分析を行ったりと、より速く動いているように感じることができます。しかし、個人レベルでのスピードは、チームに隠れたコストをもたらす可能性があります。

あるランダム化比較試験では1 246のタスクに取り組んだ16人の経験豊富なオープンソース開発者のうち、AIアシスタントを使用した人は、AIを使用しなかった開発者よりも19%長くかかりました。AIアシスタントは、開発者にあらゆる種類のさらなる障害をもたらしました。AIの提案のうち、有効だったのは半分未満でした。開発者はコードのレビュー、書き換え、クリーンアップに余分な時間を費やしました。ツールはまた、100万行を超えるコードを含む大規模で成熟したコードベースでの作業など、状況依存の問題にも遭遇しました。開発者は、AIがコードの無関係な部分に「奇妙な変更」を加えたり、下位互換性の癖を見逃したり、微妙な依存関係を処理できなかったりすることが多いと報告しました。

これを試して

AIがどれだけ生産するかだけを測定しないでください。それが人々にどれだけの追加作業をもたらすかを測定します。ソフトウェア開発者にとって、これはAIによって導入されたバグの追跡、記録されたクリーンアップ時間、統合の遅延などを追跡することを意味します。他の役割としては、洗練されているように見えてブランドから外れてしまうキャンペーンコピー、コンプライアンス要件を満たしていない契約、監査基準に合わない財務報告などの形をとります。

次に、ガードレール(構造化されたコードレビュー、自動統合テスト、チームレベルのチェックポイント)を構築して、AIがコストを下流に追いやるだけでなく、実際の進歩を加速させます。そして、アンソロピックが推奨するように2、ジェネレーティブAIツールに「なぜこんなことをしているの?」と遠慮なく聞いてみてください。もっと簡単なことを試してみてください。」クロードは「デフォルトではより複雑なソリューションを採用する傾向があるが、よりシンプルなアプローチの要求にはうまく応える」と説明されており、これにより調整コストが削減されます。

これを試して
テーマ 06

雇用、昇進、解雇

誰が仕事を得るの?誰が泊まるの? 
誰が行くの?AIはどのようにしてプロセスを改善できるのか?
AIは、あらゆる主要なキャリア決定を形作り始めています。誰が採用され、誰が昇進し、誰が解雇されるかはすでに影響を及ぼしています。そして、その影響はますます強くなる可能性があります。2025年9月、ウォルマートのCEO、ダグ・マクミロンは「世の中にはAIが変わらない仕事があるかもしれないが、私はそれを考えたことがない」と言った。AIは、検証されていない空想ではなくエビデンスに基づいて意図的に実装すれば、偏見を減らし、見過ごされがちな人材を明らかにし、従業員がより良い、より人道的な仕事を行えるようにし、より公平で迅速な意思決定を支援できます。そうでなければ、古い不平等を新しいシステムにハードコーディングし、パフォーマンスを低下させ、思慮のないレイオフを大規模に自動化することさえできます。

AIがもたらすと思われる利益が実証されるまで、雇用を削減しないでください

一部の経営幹部は、派手なAIデモを見たり、AIで成功を収めているあるリーダーや企業に関するプレスリポートを読んだり、ナプキンに数字をいくつか落書きして、人員削減の計画を立て始めたりします。中途半端で検証されていないアイデアによって人件費が節約できると自慢する人さえいます。これは、従業員を驚かせ、信頼を損ない、同じ壊れた同じプロセスを実装する人数を減らしてしまう手っ取り早い方法です。

フォーチュン500社のテクノロジー企業のある副社長は、自分の会社は別のアプローチを取っていると説明してくれました。彼らのルールは、AIの生産性の向上が現実の世界で測定可能になるまで、役割は変わらないということです。「測定可能な生産性が得られるまで、この作業は一切行いません」と彼は説明しました。さらに、組織内のほとんどのイノベーションやパイロットプログラムと同様に、「私たちが始めることの約80%は、最初に想像していた生産性の向上にはほど遠い」と付け加えました。そして、「それはテクノロジーに関してはそれほど驚くべきことではない」ため、AIベースのイノベーションが期待どおりに機能しない場合、彼らは「説明責任の共有」に注目し、協力して問題を解決し、「責任転嫁から脱却する」ことに注力します。

このようなポリシーは、従業員に明確なシグナルを送ります。ここでの転職は、誇大広告や空想、クールだけど検証されていないアイデアに基づくものではありません。新しい方法の方が優れていることを示すまで、作業内容を変更したり削除したりすることはありません。この「アイデアを変える前にテストする」アプローチは、企業が生産性やイノベーション、従業員やカスタマーエクスペリエンスの質を犠牲にすることなく、AIベースのソリューションを統合するために仕事やシステムを再設計するのにも役立ちます。経営幹部の気まぐれは満足させるが、お金を無駄にして人々を惨めにするような、よく考えられていない変更が散らばっている組織を防ぐことができます。

これを試して

AIの名の下に人員削減を行う前に、何が効果的で何がうまくいかないかについての確固たる証拠を集め、パイロットを実施し、その影響を追跡し、成果が証明された後にのみ職務を再定または廃止します。(これは当たり前のことのように思えますが、最高のリーダーや企業は多くの場合、当たり前のことの達人です。1。)

これを試して

AIを活用して従業員のライフサイクル全体にわたる偏見を根絶する

採用、昇進、レビューの各プロセスにはバイアスが伴います。なぜなら、バイアスは不完全な人間の意思決定者によって設計され、完成されるからです。1 日常的に重要な情報を無視したり、ひねったり、記憶を間違えたり、忘れたりする人。Figma、Duolingo、Code for Americaなどの組織の役員を務めるジョン・リリーは、彼が一緒に仕事をしているある会社では、面接官がそれぞれ異なるスタイルでメモを取るため、面接が歪んでしまい、候補者を公平に比較することが難しくなることがあると説明しました。これに対抗するために、一貫性のあるテンプレートでメモを取り込むAIツールを試験的に導入し、ばらつきを減らしてフィールドを平準化しています。

バイアスは業績評価に影響します。25,000件のパフォーマンスレビューを対象とした2022年の調査(人工知能人材企業Textioによる)2 女性は男性よりも性格に基づくフィードバックを受け取る可能性が22%高いことがわかりました。AI モデルは、入力を標準化し、読み込まれた言語にフラグを立てるのに役立ちます。しかし、モデルが監査され管理されなければ、AIはバイアスを拡大して定着させる可能性があります。2025年の調査3 30万件を超える求人情報のうち、「ほとんどのモデルは、特に高賃金の職種では男性を好む傾向がある」ことがわかりました。エンジニアや金融など、男性優位で高給の分野では、大規模な言語モデルが、面接の折り返し電話に女性よりも(同等の)男性を勧める傾向がありました。また、LLMは、パーソナルケアやコミュニティサービスなど、女性が支配する低賃金の仕事には、男性よりも女性を勧める傾向がありました。

これを試して

調達、スクリーニング、面接、レビュー、昇進など、人材フローを隅々まで監査します。各ステップで、「どのようなインプットが意思決定を形作るのか」という3つの質問をします。誰が決めるの?主観はどこに忍び寄るの?そこに偏見が隠れます。

これを試して
「AIをヘルパーとして活用することで、作家の足並みを含む摩擦が取り除かれ、Zapierのチームメンバー全員が、この重要な文化的接点から恩恵を受けることができます。」
ブランドン・サムット、
ザピア最高人事責任者

AI を活用して「自分と仕事をする方法」マニュアルを作成

オンボーディングは、従業員のライフサイクルの成否を分ける瞬間です。バンブーHRアンケート1 組織は新入社員を説得するのに44日しかかからないことがわかりました。そして、オンボーディングが不十分な従業員が留まる場合2、彼らは仕事の効率が低く、同僚と仕事をするための設備が整っておらず、仕事への満足度も低く、会社への献身も低くなっています。

Zapierでは、AIは新規参入者がその時間を最大限に活用できるよう支援します。最高人事責任者のブランドン・サムットが語ったように3、新入社員がいくつかの質問に答えると、AIがパーソナライズされた短いユーザーマニュアル「How to Work With Me」ReadMeを生成します4 各従業員との連携のため。従業員は自分の声で作成された AI ドラフトを編集して Slack で共有できるので、同僚は彼らと共同作業するための最善の方法をすぐに学ぶことができます。Sammutの人事チームは、このAIがサポートするワークフローにより、新入社員1人あたり1〜2時間節約できると推定しています。同じく重要なのは、「AIをヘルパーとして活用することで、ライターの足かせを含む摩擦が取り除かれ、Zapierのチームメンバー全員が、この重要な文化的接点から恩恵を受けることができる」ということでした。

これを試して

新入社員に簡単なプロンプトを出したり、エージェントに「How to Work With Me」ガイドを作成したりできます。これらの自動生成の README は、作業スタイルや隠れたルールを明らかにし、チームが信頼を築き、初日から失敗を回避するのに役立ちます。ザピアの「AI チーム Readme」クリエーター5」または「マニュアル・オブ・ミー6」そうするのに役立つかもしれません。

これを試して

AI を活用して、新入社員が実際の仕事の進め方を理解できるようにする

ほとんどのオンボーディングが失敗するのは、実際の仕事のルールがハンドブックに載っていないからです。彼らは隠れたシステム、暗黙の規範、バックチャネルネットワークに住んでいます。早い段階で学ばない新入社員は、間違った優先順位を追いかけたり、仕事を重複させたり、足場を見つける前に燃え尽きてしまうリスクがあります。

Glean では、レベッカ・ハインズが新参者だった頃、彼女はAIを使って5つの簡単なプロンプトを聞いて隠れたコンテキストを明らかにしました。1:

  1. 私の役割は会社のトップライン目標とどのようにつながっていますか?
  2. ここのトップパフォーマーは何が違うの?
  3. これらの頭字語、流行語、フレーズはどういう意味ですか?
  4. 私の役割に関連するプロジェクトに実際に影響を与えているのは誰ですか?
  5. 私の個人的な興味やライフステージを共有しているのは誰ですか?

ハインズがグリーン・アシスタントに2つ目の質問をしたところ、答えは「指導可能」でした。最高の成績を収めたのは熟練者だけではありませんでした。彼らはフィードバックを追い求め、迅速に適応し、すべての課題を改善の機会として扱いました。これにより、彼女自身のランプアップへのアプローチ方法が変わりました。自分自身を証明することよりも、早く学ぶことに重点を置くようになりました。

これを試して

オンボーディングプロセスを監査してください。新入社員が最初の 1 週間以内に上記の 5 つの重要な質問に答えられるかどうかを尋ねます。それができない場合は、適切な非構造化データ (Slack スレッド、プロジェクト文書、議事録) を一元管理しましょう。そうすれば、新入社員に推測させることなく AI が答えを導き出せるようになります。

これを試して

従業員に AI の成長目標を少なくとも 1 つ設定するよう求める

ほとんどの企業が、組織レベル(ロールアウト、パイロット、大規模なイニシアチブ)での AI の導入について語っていますが、個人的なものにするには至っていません。Workday では、人事分析担当副社長の Phil Willburn が別のアプローチについて説明しました。それは、すべての従業員に AI スキルを身に付けるために四半期ごとの目標を設定するよう求めているというものです。その単純な期待から、AI は抽象的な企業イニシアチブから個人のコミットメントへと移行しました。これにより、説明責任が生まれ、実験が標準化されました。さらに、各従業員は各自のAIの使用状況に関する個別のインサイトを受け取ったため、自分の目標をスキル構築の指標とより的確に結び付けることができました。

これを試して

AI を従業員能力開発計画の一部に組み込む。すべての従業員に AI を学んだり適用したりするための具体的な目標を設定するように依頼してください。そうすれば、これらのスキルの構築が目に見える共通のコミットメントになります。

これを試して

AI に自慢してもらいましょう

業績評価や昇進で最も難しいのは、自分の成功を思い出すこと、または祝うことです。Zapierでは、フルスタックエンジニアのジョーダン・ローリーと彼のチーム1 AIを使ってその問題を「ブラグドク」システムで解決しました。

誰かがSlackに賞品を投稿して絵文字を追加すると、AIがそれをつかんで簡単な要約を生成し、個人の自慢データベースに保存します。時間が経つにつれて、各人は既成の成果記録を作成します。「これらのドキュメントは、会社の目標サイクル、プロモーションプロセス、およびパフォーマンスレビューの参考資料として使用できます。インポスター症候群への取り組みにも役立ちました」とローリーは言います。

これを試して

レビュー時にすべての勝利や称賛を掘り起こすように従業員に依頼して負担をかけないでください。代わりに、AIを使用して各従業員の成果をその都度記録することで、影響の証拠が常に最新で、見つけやすくなります。

これを試して
THEME 07

Learning and Development

How are skills taught, learned,
updated, and unlearned—and how should they be?
Traditional learning and development has been episodic and standardized: annual training modules that feel like box-checking exercises, annual performance reviews that bleed time and suffer from recency bias, and the occasional “upskilling” course that feels bolted on. AI has the potential to flip that model and turn learning and development into something continuous, personalized, and wired into the work people actually do.
“The next phase of AI transformation will belong to organizations that pair machine intelligence with human discernment training teams to slow down, question assumptions, and use AI as a collaborator, not a crutch.”
Erica Dhawan,
AI expert and author, Digital Body Language

Use AI as a thinking partner, not a substitute for thinking

AI can make you feel more productive while quietly making you dumber.

That’s the upshot of a study of healthcare workers1 that Wharton Professor Adam Grant told us about: when Polish endoscopists started using AI to help detect cancer during colonoscopies, their performance on non-AI procedures got worse. In other words, the more these healthcare workers relied on AI, the less sharp they became when the AI wasn’t there. Grant’s takeaway “whether you get cognitive debt or cognitive dividend depends on whether you use AI as a crutch or a learning tool.”

Erica Dhawan, AI expert and author of Digital Body Language and the forthcoming book Use Your Brain, sees the same pattern at the organizational level. As she put it to us, “The smartest leaders approach AI transformation not as a tech upgrade but as a judgment upgrade. The next phase of AI transformation will belong to organizations that pair machine intelligence with human discernment training teams to slow down, question assumptions, and use AI as a collaborator, not a crutch.”

If you treat AI as a substitute for thinking and professional judgment—reflexively leaning on its outputs—you rack up cognitive debt: slower execution in the long run, eroded skills, and misplaced confidence. If you treat AI as a learning tool and collaborator (that helps you critique, compare, and interrogate) and the same system rewards you with a cognitive dividend. It sharpens your judgment and expands your skills, even if sometimes your work takes longer in the short-term.

Try this

Consider running a “Human-in-the-Loop Review” before AI-driven decisions. Dhawan has seen how a little friction can go a long way. She explained to us, “At one global manufacturer I studied, teams now run a "Human-in-the-Loop Review" before every AI-driven decision asking, "What does the data miss?"; "What would we decide if the AI were wrong?" This simple discipline has reduced costly missteps and rebuilt trust across silos.”

Try this
“You spend half the meeting [with a mentee] just trying to figure out what they’re talking about…they’re lacking metacognitive skills to plan, diagnose, and understand the problem they’re tackling.”
Liz Gerber,
Professor, Northwestern University

Use AI pre-coaching to enrich mentorship

Mentorship is powered by the human touch. But AI can free mentors to spend their time where their expertise matters most.

As Northwestern professor Liz Gerber explained to us, one of the biggest skills novices lack is metacognition: the ability to step back and ask, “Am I even working on the right problem?” Novices who lack this skill default to safe, surface-level tasks such as polishing slides, coding another feature, or tweaking formatting. The harder, riskier work—clarifying assumptions, diagnosing risks, and stress-testing strategy—goes untouched. “You spend half the meeting [with a mentee] just trying to figure out what they’re talking about…they’re lacking metacognitive skills to plan, diagnose, and understand the problem they’re tackling.”

Her PhD students experimented1 with AI “pre-coaching” to fix this problem with coaches who mentored novice entrepreneurs. Here’s how it worked. Before the coaches had one-on-one meetings, the novices ran through an AI-guided prep: articulating goals, surfacing risks, and reflecting on progress. The system didn’t just collect updates. It used a library of common pitfalls to uncover the novices’ blind spots (like skipping validation or ignoring distribution) and asked the novices targeted follow-ups. One first-time founder admitted, “I felt called out—but in a good way,” after realizing he’d been hiding in the comfort zone of coding instead of facing the real blocker: the lack of a distribution plan for his start-up.

That prep transformed the subsequent one-on-ones between coaches and novice entrepreneurs. Instead of wasting half the meeting clarifying the problem, conversations jumped straight to higher-value ground: critiquing prototypes, designing validation experiments, debating strategy, or addressing emotional blockers including perfectionism and fear of failure. Mentors in the study reported feeling more focused and impactful; novices said the AI’s nudges felt sharper and more “real” than static frameworks such as Lean Canvas2.

Try this

Pilot an AI “triage” solution in your mentoring or coaching programs. Have employees complete a short AI-guided prep before one-on-ones, summarizing goals, blockers, and progress. The possible result: less time circling the problem, more time solving it.

Try this

Have the juniors mentor the seniors

Just as AI is reshaping mentorship, it’s also upending apprenticeship. Traditionally, workplace learning followed an apprenticeship model: juniors learned the ropes from seniors. But with AI, that script flips. Many junior employees enter with more AI fluency—they’ve picked it up in college or side projects. Seniors still bring the judgment and scar tissue from years of experience, but when it comes to AI, reverse mentorship is often the answer.

University of California at Santa Barbara Professor Matt Beane calls this “inverted apprenticeship.” On paper, it sounds promising. In practice, his research shows that 90% of the time it fails. Seniors learn just enough to scrape by, while juniors get stuck with the grunt work and eventually burn out.

Yet Beane and his collaborator Callen Anthony (NYU) found1 a notable exception, what they call seeking. In seeking, senior experts don’t delegate AI tasks downward. They dig in and work side-by-side with their junior colleagues. They share the early stumbles, the trial-and-error, and the messy problem-solving. That joint struggle is what builds lasting expertise for both groups—and stronger bonds between novices and experts.

Try this

Be wary of making juniors the “AI help desk” for seniors. Instead, create “seeking” opportunities. Pair senior experts with junior employees with AI expertise and give them a real problem to crack together. Make sure seniors are in the struggle early, experimenting and learning alongside their juniors.

Try this

Question the hype
Growing entry level jobs might be better than cutting them

The doom narrative says AI will wipe out entry-level roles and recent research1 shows that entry-level jobs are being cut. Shopify is betting on the opposite strategy. After successfully bringing in 25 engineering interns, CEO Tobi Lütke asked Head of Engineering Farhan Thawar how big they could scale the program. Thawar reports, “I originally said we could support 75 interns. Then I took it back. I updated my answer to 1,0002.”

Thawar has explained3 that in the post-LLM era, they bring something else: they’re “AI centaurs.” They experiment fearlessly, chase shortcuts, and don’t waste time reinventing the wheel. “I want them to be lazy and use the latest tooling,” Thawar says. “We saw this happen in mobile—interns were mobile-native. Now they’re AI-native.”

At Shopify, leaders believe they need interns with fresh eyes who don’t have old habits to unlearn, and that their curiosity can drag an entire team into the future. But this strategy only works, we should add, in high-trust cultures where young talent gets real problems to solve.

Try this

Build a culture where entry-level employees aren’t sidelined, but trusted to solve real problems with AI. Encourage them to be “lazy” in the best sense: using tools to find smarter, faster ways to work. Pair them with senior mentors, give them visible projects, and let their AI-native instincts ripple across the org.

Try this
“Senior devs give those junior devs an impossible task per unit time…the junior devs come screaming across the finish line in 48 hours with code that is functional. And then the senior dev says, ‘There are three problems—go find them. I’m not going to tell you what they are.’”
Matt Beane,
Professor, University of California, Santa Barbara

Let junior developers build buggy code, then ask them to find the bugs

The apprenticeship model isn’t just inverted in some organizations. It’s morphed into a two-speed system—where juniors race ahead with AI, then seniors force them to slow down and wrestle with the bugs.

Traditionally, junior developers learned slowly: sitting in code reviews, pair programming, and watching seniors catch mistakes. With AI-assisted “vibe coding,” developers now produce polished-looking code in hours. It compiles, it runs, it looks fine—until it collapses under real-world complexity.

Some teams embrace a two-speed model. As University of California at Santa Barbara Professor Matt Beane described to us, they let “junior devs” sprint with AI, then force them to hit the brakes. “Senior devs give those junior devs an impossible task per unit time…the junior devs come screaming across the finish line in 48 hours with code that is functional. And then the senior dev says, “There are three problems —go find them. I’m not going to tell you what they are.”

Beane says this works because juniors learn faster. In just a few days, they’ve done the building and now face the kinds of tricky bugs and design flaws that would normally take months to surface. Instead of just watching seniors catch mistakes, they have to find and fix the problems themselves. Beane added, “They get in four days what that entire team normally could have done in, say, three weeks…and those junior people are learning way faster about really high-order subtle stuff than they ordinarily would have.”

Try this

Let junior developers use AI to build quickly but then slow them down on purpose. Don’t tell them what’s broken. Make them find the problems. Prompts like “There are three things wrong” can shift the learning from passive review to active discovery.

Try this
“Break your complex problems into ten smaller items and then let AI handle six of them. This isn’t quite the way many engineers naturally think, but once you start seeing the benefits, you start developing new habits for breaking things down differently. One more thing to consider during such a process is whether humans should augment AI, or AI should augment humans.”
Howie Xu,
Chief AI and Innovation Officer at Gen

Coach people to use AI to break big challenges into smaller pieces

Many engineers are trained to think end-to-end: take a big problem, own it, and ship a solution. But with AI in the mix, the skill of decomposition—breaking a big challenge into smaller pieces to figure out which parts can be handled by machines—becomes more valuable.

Research in engineering design has shown1 that experts tend to use “breadth-first” decomposition (outlining all the major pieces of a problem before drilling into detail). Novices, on the other hand, dive deep into one part and try to perfect it end-to-end. The experts’ breadth-first habit appears to be becoming a key part of AI literacy. “Break your complex problems into ten smaller items and then let AI handle six of them. This isn’t quite the way many engineers naturally think, but once you start seeing the benefits, you start developing new habits for breaking things down differently. One more thing to consider during such a process is whether humans should augment AI, or AI should augment humans,” says Howie Xu, Chief AI and Innovation Officer at Gen.

問題を分解するのは、複雑さを管理するだけではありません。あなたは人間の判断と機械による実行の境界線を描いているのです。すべての分裂は静かな権力の交渉です。

これを試して

プロジェクトのスコーピングを行うときは、コードを書く前にエンジニアにプロジェクトを個別のモジュールに分割してもらいます。「半分の法則」を適用してみてください2」: エンジニアに、これらのモジュールの半分を選択して AI に引き渡すよう依頼します。また、他の種類の作業にも同様の戦略を使用してください。マーケティングキャンペーンは、クリエイティブコンセプト、コピー、ビジュアル、オーディエンスターゲティング、分析に分けることができ、その半分はAIが加速できます。また、座席表、招待状、メニューオプション、音楽プレイリストなど、結婚式の計画のように個人的なことを考えてみましょう。これらのサブタスクの多くは、AIによってスピードアップまたは自動化できます。

作業を分解するときは、Howie Xu(Genの最高AIおよびイノベーション責任者)のアドバイスを受けて、誰が誰を拡張しているのかを慎重に検討してください。人間がAIを拡張するのであれば、よりマシンのトレーニング、より豊富なラベル、より優れたフィードバックループ、エッジケースの慎重なキュレーションによるパフォーマンスの向上に重点を置いてください。しかし、AIが人間を増強しているのであれば、人材のトレーニングにもっと重点を置いてください。つまり、機械をいつ信頼すべきか、いつ疑問を投げかけるべきか、いつ無効にすべきかを知るためのスキル、パターン認識、判断力の構築を支援することです。

これを試して

AI を使って難しい会話をリハーサルする

AI は技術学習のあり方を変えるだけではありません。仕事の対人関係のコーチにもなりつつあります。デロイトの「人事の未来」の取り組みを率いるカイル・フォレストをはじめとするリーダーたちは、難しい会話に備えるためにどのようにAIを活用したかを説明しました。彼は時々、その瞬間をAIアシスタントとロールプレイして、同僚や上級リーダーと話す前に難しいメッセージをどのように組み立てるかをテストしている様子を話してくれました。

アットフープ1、コアプロダクトの責任者であるヒラリー・グリドリーは、チームに「30日間のGPTチャレンジ」を行いました。29日目には、AIを使って難しい会話をリハーサルすることも従業員に奨励されています。たとえば、「締め切りに間に合わなかったことについて、守備的な態度を取らずにチームメイトと話し合う必要がある」というようなプロンプトを出すように勧められます。冷静に会話を始めるにはどうすればいいの?」あるいは、「彼らはどのように反応するだろうか?そして、どうすればそれぞれの反応に共感をもって対処できるか?」[グリドリーの無料の「30日間のGPT学習ガイド」をご覧ください。2「チームで試してみたいなら。]

2023年の探索的研究3 アン・スーとディヴィア・チョードリーによる同様のアプローチをテストしました。HsuとChaudharyは、13人のユーザーを対象に、紛争解決のために開発したAIベースのWebアプリケーションを実験しました。それぞれが職場での紛争シナリオで発言する内容(現実的なものもあれば、仮説的なものもある)を入力し、防御の引き金となる可能性が高いとAIにフラグが立てられた言葉(非難、判断、誇張など)も入力しました。代わりに、より中立的でニーズに基づいた言い回しを提案しました。

この調査に参加したユーザーは、AIのガイダンスを信頼し、言葉遣いを再考するのに役立ち、実際の会話に落ち着いて自信が持てるようになったと報告しました。多くの人が、実際の紛争を安全かつリスクの少ない方法で処理する方法をリハーサルするために使い、ストレス解消であると同時にスキル構築の練習でもあると説明しました。

これを試して

ハイステークスの会話の安全な実践パートナーとしてAIを活用しましょう。地雷のフラグを立てたり、落ち着いた言葉遣いを提案したり、従業員が本物に足を踏み入れる前に自信を持たせたりすることができます。

これを試して

人工知能を使って「ノー」と言う練習をする(馬鹿みたいに聞こえないように)

最も難しいソフトスキルの1つは、「ノー」と言うことを学ぶことです。アダム・グラントが言う「贈り主」にとって、それはほとんど不可能だと感じることがあります。疲れ果て、憤慨し、ひそかに業績が落ち込むまで「はい」と言い続けます。

しかし、最高の組織には、人間関係を損なうことなく時間を守ることができる人材が必要です。

その30日間のGPTチャレンジの一環として1 Whoopのコアプロダクト責任者であるヒラリー・グリドリーが率いる従業員は、AIを使ってノーと言う練習をしています。次のようなプロンプトを使用できます。

  • 「役に立ちながら、これを断る巧みな方法とは?」
  • 「これが本当に緊急かどうかを理解するには、どのような質問をすればよいですか?」
  • 「この人が私の返答を読んだとき、どう感じるだろうか?そして、どうすればそれを和らげることができるだろうか?」
これを試して

ノーと言う練習をAIにお任せください。従業員は関係に支障をきたすことなく境界線を引くことができるように、しっかりとした礼儀正しい回答を作成しましょう。

これを試して

AIの学習を大工ではなく庭師のように扱う

カリフォルニア大学バークレー校のアリソン・ゴプニック教授の対比1 2つの考え方:大工はすべての結果を設計して管理しようとしますが、庭師は成長のための条件を作ることに集中します。マッキンゼーのコンサルタントであるボブ・スターンフェルスとユヴァル・アトスモンは、次のように主張しています。「最も成功しているマネージャーは、新技術を試し、早い段階で有望な結果を示している従業員、チーム、または部署の芽を見極めることに重点を置いています。彼らはこう尋ねます。「イノベーションはすでにどこで行われているのか?驚くほど効果的な方法で問題を解決しているのは誰ですか?'」同じような議論を複数のリーダーから聞きました。彼らは、AIはピアネットワーク、目に見える実例、そして小さな成果を通じて、むしろ庭のように広がると語りました。リーダーとしての仕事は、養子縁組の計画を段階的に細かく管理することではなく、土壌を肥沃にすることだと主張しました。

これを試して

命令や設計図だけでAI導入を「大工」にするだけではいけません。庭に植えてください。Slack チャンネル、昼食と学習、社内ニュースレターなど、目に見える非公式なスペースを作り、従業員が実際の AI のユースケースをデモしたり、アイデアを交換したり、同僚が真似できる実験を始めたりできます。そうすることで、正式な養子縁組と非公式の養子縁組を健全に融合させることができます。

これを試して

鏡を持ち上げて
AI を使っているような人を人に見せましょう

インタビューしたリーダーの何人かは、万能のトレーニングは、あなたと同じような仕事をしていて同じような課題に直面している人がAIを使うのを見るほど効果的ではないと主張しました。この観察結果は、対人行動に関する研究と一致しています。1 そして社会運動の広がり2 つまり、同じ学校に通っていた人、同じ性別や人種、同じ年齢、この場合は役割や肩書きが似ている人など、自分と似ていると思われる人がモデルになっているのを見ると、新しいアイデアがより早く広がります。

Indeed では、ブランド・広告担当ディレクターのミーガン・マイヤーズがホストを務めています。3 「パワーユーザーパネル」では、同僚が仕事にAIをどのように組み込むかをライブデモします。デロイトでは、同社は「精通したユーザープロファイル」を作成しました。4」—会社のGenAIアシスタントを日常業務にうまく取り入れている従業員に焦点を当てた簡単な記事です。各プロファイルには、解決した問題、実行した手順、節約できる時間が明確に示されています。これにより、同僚は AI の効果的な使用が実際にどのようなものかを理解するのに役立ちます。Zendeskでは、エンジニアリング担当シニアバイスプレジデントのNan Guoが、彼女のチームが6週間にわたって「How Did I It?」をどのように実施したかについて話してくれました。エンジニアが共有のSlackチャンネルに毎日の成果を投稿し、リーダーが勝者を選ぶキャンペーン。このようなキャンペーンは、AIソリューションを抽象的ではなく具体的にするのに役立ちます。これは、あなたと同じような同僚がより良い仕事をするために利用するものです。

これを試して

「AI 導入ミラー」を構築しましょう。各ロールのスーパーユーザーを見つけましょう。スクリーンショット、導入前と導入後の比較、達成した成果をワークフローとして文書化します。そうしたプロフィールを Slack、ニュースレター、またはチームミーティングで公開して、同じような人たちがどのように AI を上手に使っているかを同僚に見てもらいましょう。行動研究5 似たような人がすでに新しい習慣を身につけているのを最初に見たときに、人々が新しい習慣を身につける傾向が高くなることを示しています。具体的であればあるほど良い。そして、リーダーにこれらのストーリーを広めてもらい、それが副業ではなく、組織の仕組みへの貴重な貢献であることを従業員に知ってもらいます。

これを試して

派手なインパクトだけでなく、「静かな」改善に報いるハック・ア・ソーン、エージェント・ア・ソン、プロンプト・ア・トーンを実施

ハック・ア・ソン、エージェント・ア・ソン、プロンプト・ア・トーンは、企業のAI展開の定番となっています。楽しく、認知度を高め、AI のチャンピオンやユースケースを浮き彫りにしてくれます。しかし、賞品は最も派手なアイデア(最大のデモ、最も目に見える勝利)にのみ与えられ、ワークフローの改善や仲間によるAIの採用支援などの静かな仕事は見過ごされがちです。

Udemyでは、暫定最高学習責任者のRebecca Sternが、最近組織全体で実施した「UDays」と呼ばれるAIの取り組みについて説明しました。これは、毎月学習に専念する日で、従業員が集まってAIプロンプトとプロトタイプを作成します。派手なインパクトだけで賞品を贈るのではなく、1~2,000ドルをテーブルに置き、3つのカテゴリーに分けています。

  1. 最大衝撃実験
  2. 最適なビフォーアフタープロンプト
  3. 最高のピアフィードバック
これを試して

次の 3 つのレベルでインセンティブを構築できます。

  1. 使用: 日常業務で AI を試した従業員に報酬を与えます。
  2. 改善: プロンプト、ワークフロー、またはエージェントを大幅に改善した人を評価してください。
  3. 共同制作: 同業他社がAIプラクティスを採用または改良するのを手伝ってくれる人々を称えましょう。
これを試して

チームの DNA に合った AI インセンティブをデザインしましょう

UdemyのUDays(毎月学習に専念する日)で、最高学習責任者のRebecca Sternは、営業チームの人々が両足で飛び込んでいることに気付きました。彼らは、他の職務のスタッフよりも賞金を獲得したいというモチベーションが高いようでした。スターンが言うように、「彼らはすでに、リーダーボード、クォータ、勝利というインセンティブ主導の世界に住んでいます。彼らはプレーの仕方を知っていて、勝つためにプレーした。」他のいくつかの部門は遅れていました。同じ賞でも、チームの文化によって意味が異なります。

これを試して

「プロンプト・ア・ソン」や「エージェント・ア・ソン」を実施して、従業員に実践的な練習をさせましょう。しかし、インセンティブを各チームの既存の運営方法に合わせる方法を検討してください。クォータ主導型のグループは賞品やランキングに反応し、クリエイティブチームは表彰やストーリーテリング、実験を紹介する時間を重視するかもしれません。

これを試して
「Buzzは、IT部門からのアウトリーチメールよりもはるかに説得力があります。」
アンメン・シン
Reddit リードソリューションエンジニア

他の誰もがFOMOを体験できる場所にAIを注入

すべてのインセンティブが現金や賞品である必要はありません。見逃すことへの恐れ(FOMO)も、同様に強いモチベーションになり得ます。

それが彼らがRedditで活用したものです。リードソリューションエンジニアの Ammen Singgh 氏は、すでに摩擦が起きている場所、つまり Slack チャンネルを選んだ経緯を説明しました。そこでは、従業員は常に社内に質問を投稿し、何日も返答を待っていました。彼らはバックログに目を通させる代わりに、Glean を搭載したAIエージェントを導入しました。ボットは即座に回答してくれました。正確で親切で、人の手間もかかりません。

かつては大きなボトルネックだったものが、ほとんど摩擦がなくなりました。社内の人々が「なぜ私たちにもそのエージェントがいないの?」と尋ね始めました。数週間以内に、300 人以上の従業員がアクセスをリクエストしました。6か月後、AIエージェントは全社的に導入されました。Singh氏は、「Buzzは、IT部門からのアウトリーチメールよりもはるかに説得力がある」と述べています。

これを試して

誰もが苦痛を感じる、摩擦が激しく可視性の高い1つのワークフローにAIを組み込んでください。解決策が目に見えて有用であれば、好奇心と仲間からの圧力が採用を後押しします。

これを試して
「使用状況(アクティブユーザー数、会話数)の監視を開始した瞬間、実用性ではなくコンプライアンスが得られます。人々はメトリクスを見栄えよくするためにツールを使うふりをします。それは監視であり、養子縁組ではありません。」
フェデリコ・トレッティ、
オラクル AI 担当シニアディレクター

バニティメトリクスとそれが作り出す「AIシアター」に注意

AI ロールアウトにおける最も簡単な落とし穴の 1 つは、「バニティメトリクス」を追いかけることです。オラクルのAI担当シニアディレクター、フェデリコ・トレッティは彼らをそう呼んでいます。彼は、ログイン数、ツールの使用時間、チャット回数など、ダッシュボードを印象的に見せるための指標について話しています。しかし、AI が実際に仕事を改善しているかどうかは測定しないでください。Torretti氏は次のように語っています。「使用状況(アクティブユーザー、会話数)の監視を開始した瞬間に、実用性ではなくコンプライアンスが得られます。人々はメトリクスを見栄えよくするためにツールを使うふりをします。それは監視であり、養子縁組ではありません。」

Zendeskでは、エンジニアリング担当シニアバイスプレジデントのNan Guoが、ツールの使用状況にこだわる代わりに、6つのエンジニアリング生産性指標のスコアカードを作成した方法を説明しました。その中には、チームレベルで測定する5つの運用指標(サイクルタイム、コードレビューサイクル時間、マージ頻度、変更失敗率、デプロイ数(チームがコードを本番環境に正常にリリースする頻度)が含まれます。「私たちは、『ほら、みんながツールを使っている』とだけ言いたくありませんでした。それが実際に生産性に影響を及ぼしているかどうかを知りたかったのです」と彼女は語りました。

エンゲージメント調査から得られた6番目の指標は、エンジニアが使用しているツールについてどのように感じているか、それらのツールが実際に仕事の改善に役立つと考えているかどうか、フラストレーションや摩擦が高まっている箇所など、生産性の感情的な側面を捉えています。ナンが言ったように、「私たちはデータだけでなく、人々がどのように感じているかを見ています。彼らはツールを信頼していますか?彼らは自分たちが助けていると思っているのか、それとも邪魔をしていると思っているのか?」

一方、オラクルのTorretti氏は、オラクルのリーダーたちが「AIの意図の多様性」、つまり従業員が実際にAIを使用するさまざまなタスクをどのように測定しているかを語りました。人々がAIを複数の作業ストリーム(製図、分析、デバッグ、要約)に適用する場合、それは単なる目新しいものでも、AIシアターを通じて生産性を証明する方法でもなく、仕事の進め方の一部になりつつあることの表れです。

これを試して

未処理の使用状況指標による AI の追跡には注意してください。従業員がどれだけの種類の仕事にAIを使用しているかを測定します。AIが日常のワークフローにどのように適合するかを尋ねる採用調査を補足してください。これにより、AIが無意味なダッシュボードを埋めるだけでなく、付加価値をもたらしているかどうかが明らかになります。

これを試して

指標を経営陣だけでなくチームにも委ねる

バニティメトリクスを避けるだけでは十分ではありません。真の課題は、効果的な行動変化を評価して推進する測定システムを設計することです。Zendeskのエンジニアリング担当シニアバイスプレジデントであるNan Guoは、彼女のチームが従業員によるAI導入の測定にどれほど慎重に取り組んでいるかを説明してくれました。

  • 名前はありません。個々のリーダーボードは立ち入り禁止でした。なぜなら、ランキングが公開されると、信頼、本質的なモチベーション、エンゲージメントが損なわれ、人々はパフォーマンスを真に向上させるのではなく、システムをゲームに集中させる可能性があるからです。
  • チーム間の直接比較はできません。指標が意味を持つのは、各チームの仕事の微妙な違いと結びついている場合だけです。Guo氏が言うように、「UIはインフラストラクチャとは比較になりません。同じことをしているわけではありません。」
  • メトリクスデータをチームに提供します。最も重要なのは、Zendeskが指標を経営陣だけでなくチームにも委ねていることです。エンジニアが自分のベースラインやトレンドを見たとき、チームの改善点や注力すべき点についての情報が得られたので、より力を与えられたと感じました。

Workday のピープルアナリティクス担当副社長である Phil Willburn 氏はこの点を強調し、次のように語っています。「私はデータの民主化を強く信じています。マネージャーにインサイトを提供できれば、従業員も自分のデータにアクセスできるはずです。」

アクセスには、どのような指標が存在し、それが従業員にどのようなメリットをもたらすかについての明確なコミュニケーションと、「監視」のダイナミクスの認識を妨げる集計と役割ベースの制御が必要であることを強調しました。言い換えると、「指標どおりに実行する」ためのインセンティブ(たとえば、AI の使用数を増やすためのスパムプロンプト)を作成しないでください。代わりに、学習と実際の行動の変化をサポートする手段を設計してください。

これを試して

チームが所有できるメトリクスを設計します。ランキングではなく、トレンドと改善に焦点を当てます。結果を従業員自身の手に委ねることで、上から分析されたり細かく管理されたりするのではなく、進歩に対する責任感を従業員自身が感じられるようにします。ただし、個人レベルの指標は共有しないでください。

これを試して

AI の導入を別のスタックランクの課題に変えないでください

従業員の追跡、測定、さらにはスタックランク付けなど、AIの使用を監視スポーツに変えた企業についての話をたくさん聞きました。あるソフトウェア会社の新CEOが出席し、業績評価にAIの使用が考慮されるようになったと発表しました。また、あるフォーチュン100企業では、リーダーが毎週メールを送信し、誰が最もAIを使用しているかをランキングしました。これまで見てきたように、このような監視の考え方は、学習やより良い仕事ではなく、不安やゲームを生み出すものです。

しかし、仲間からの意見がうまく行われれば、AI の使用が自然に感じられるようになります。これは、アーリーアダプターやテクノロジー愛好家だけでなく、誰もがそうすることを期待していることです。そして、それをゼロサムのリーダーボードに変えることなく。Shopifyでは、従業員は四半期ごとにAIツールの使用方法について互いに評価しています。従業員へのメモで1 CEOのTobi Lütkeは次のように書いています。「AIを上手に使うことを学ぶことは素晴らしいスキルです。私の感覚では、多くの人がプロンプトを書いた後にあきらめ、理想的なものがすぐに戻ってこないということです。プロンプトを出してコンテキストを読み込む方法を学ぶことは重要であり、これがどのように進んでいるかについて同僚にフィードバックを提供してもらうことは貴重です。」Shopifyのポイントは、勝者と敗者を決めることではありません。これは、同僚同士が信頼関係を築く方法の 1 つとして、AI の流暢さを可視化してソーシャル化することです。

Zoomでは、AI のインサイトに対するオーナーシップを人々に与えることが、採用を後押ししました。AI 戦略責任者 Paul Magnaghi 氏は次のように説明しています。「当社の営業業務では、[AI ツールに関する] 信頼を築くことが不可欠でした。」同社は早い段階で、Zoom内の会話インテリジェンスを使って営業担当者の会話の効果を分析し始めました。「最初、営業担当はマネージャーがデータを使って自分たちを監視することを心配していました。私たちはそれをひっくり返して、営業担当者自身にインテリジェンスを公開し、担当者がAIツールに直接問い合わせられるようにしました。今では、「この会話で私は効果的だったのか?」など、好奇心旺盛な質問をすることができます。その結果、そのレベルの信頼が高まるのを見てきました。」

これを試して

ピア・ツー・ピア・サイクルにAIを組み込むが、個々のピア・ツー・ピア・ランキングは落とす。同僚が AI を使用して問題を解決したり、ワークフローを改善したり、チームメイトを支援したりした方法の具体例を従業員に共有してもらいます。これにより、監視からストーリーテリングへ、コンプライアンスから認識へ、そして空虚な指標から共有学習へと焦点が移ります。

これを試して
テーマ 08

イノベーション

AIは、新しいアイデアの生成、選択、実装の方法をどのように変えるのか(そしてそうすべきなのか)?
スタンフォード大学ビジネススクールのチャールズ・オライリーが論じたように、組織のイノベーションには創造性と実行力の両方が必要であり、良いアイデアだけでは十分ではなく、悪いアイデアを完璧に実行することは時間とお金の無駄です。AIは、アイデアの生成方法、選択方法、コンセプトから現実への移行方法など、その方程式の両側を変えています。

自問してみてください。AIは問題解決のツールとして適切ではないでしょうか?

すべての問題が AI の問題というわけではありません。予算の承認を得るためだけにプロジェクトに「AI」を導入したり、より簡単な修正で十分なのに AI が必要だと考えるチームについての話をたくさん聞いたことがあります。Dayforceの最高AI責任者であるDavid Lloydは、「問題には実際にAIが必要なのか」という最初の質問が、強制審査を通じて新しいAIユースケースの提案をどのように行っているかを説明しました。

これを試して

AI プロジェクトを承認する前に、チームに「本当に人工知能が必要なのか?」と答えてもらうように働きかけましょう。

また、アイコンタクト、優しい笑顔、人間との触れ合いなど、実際の人間との交流を提供したいと考えている場合、AIはその方法についていくつかのヒントを与えてくれるかもしれませんが、あなたに代わってそれを行うことはできません。GPT‑4oの言葉を借りれば、「LLMを信頼して慰めることは、ゾンビにハグを求めるようなものです。」LLMは壊れたトイレの修理方法を説明してくれますが、手を汚して修理するのはあなた、または配管工次第です。

これを試して

(お粗末な)AIベンダーが吐き出す一酸化専門用語に騙されないでください

AI ベンダー(少なくとも粗末なベンダー)は、スマートに聞こえるが意味の少ない流行語で、不安定な製品を隠すのが好きです。パブリシス・メディアのデータサイエンティスト、サヒン・アーメドが言うように1:「最近、みんながAIの流行に乗って、テックパレードで紙吹雪のように流行語をぶちまけているようです。」彼は警告します2:「自社のAIが実際に何をするのかを明確に説明せずに、専門用語が多いフレーズを使用する企業には注意してください。」

これを試して

「AI搭載」と刻印された製品を承認または購入する前に、ラベルを剥がして、「AI」という言葉が売り込みから消えたとしても、その製品はまだ印象に残っているのか、それとも必要なのか、と尋ねてください。次に、アーメドのアドバイスに触発された、5部構成のAI洗浄腸チェックを行います。

  1. アウトランディッシュ・プロミス・テスト: 現時点では機能する AI を示すことはできないが、明日の革命を約束しているベンダーには懐疑的になりましょう。質問したすべての機能が「ロードマップに」記載されている場合、トランスフォーメーションではなく、研究開発に資金を提供していることになります。
  2. AI 残留物テスト: ベンダーと会った後、ピッチから「AI」という言葉をすべて削除して、もう一度読んでください。ストーリーが崩れたら、おめでとうございます。つやを拭き取って、本当に下にあるものを見つけただけです。
  3. リファレンスゴーストテスト: ベンダーの現在の顧客と話すように依頼してください。彼らがリクエストをかわしたり、「戦略的パートナー」(通常は実際の有料ユーザーではなく、友好的なコラボレーター)に送ったりした場合、それは「まだ満足している顧客がいない」ことを示すコードです。
  4. ヒューマン・イン・ザ・ループ・テスト: 本物のエンタープライズAIは判断力を強化するものであり、それに取って代わるものではありません。ベンダーの売り込みで全人類または大半の人間が姿を消すと仮定した場合、彼らはオーグメンテーションではなくファンタジーを売っていることになります。
  5. ミッシング・メトリック・テスト: すべてのAIクレームは、バグの減少、販売サイクルの短縮、予測精度の向上など、測定可能な特定の項目と結び付けられる必要があります。聞こえてくるのが「スマート」や「トランスフォーメーティブ」などの形容詞だけなら、結果を買うのではなく、形容詞を買っていることになります。
これを試して

安全な実験を促進する AI サンドボックスの構築

AI イノベーションをすべての人に開放することにはリスクが伴います。そのため、Stanford Medicineは「SecureGPT」と呼ばれる安全なAI「プレイグラウンド」を構築しました。そこでは、臨床医、管理者、スタッフ、ITチームのメンバーが、プライバシーとセキュリティを保護しながら、アイデアを安全にテストできます。CIDO兼副学部長のMichael Pfeffer氏は、スタンフォード大学の医師や看護師が、正式な承認を待たずに、システムによってすべての実験を匿名で追跡しながら、日常業務でどのようにプロンプトをテストしているのかを教えてくれました。

たとえば、最高データ責任者のニガム・シャーが率いるチームが「ChateHR」を開発しました。1」AIプレイグラウンドで行われた実験を分類してランク付けします。このツールにより、臨床医は「患者の病歴について質問したり、チャートを自動的に要約したり、その他のタスクを実行したりする」ことができます。Shahが説明したように、「ChaThrは安全で、関連する医療データを直接取得し、電子カルテシステムに組み込まれているため、臨床での使用が簡単かつ正確になります。」33人の医療従事者からなるパイロットグループが、各患者の「全体像」に関する情報を迅速に検索するChateHRの能力をテストしました。こうした初期ユーザーの一人であったスタンフォード大学の医師は、ChateHRが彼と同僚たちを解放し、「患者と話したり、何が起こっているのかを理解したりするなど、重要なことに時間を割く」ことができるようになったと報告しています。現在、ChateHRはスタンフォード大学のすべての臨床医が利用できます。

これを試して

安全な AI サンドボックスを立ち上げる前に、「失敗する場所はどこか?2IDEOでマネージング・ディレクターを務めていた頃、ハーバード・ビジネス・スクールのエグゼクティブ・フェローであるディエゴ・ロドリゲスがクライアントにその質問を投げかけていました。すべての革新的な組織には答えが必要です。つまり、人々がリスクを冒し、新しいスキルを学び、失敗し、学び続けることができるスペースです。

次に、そのスペースを AI 用に構築します。IT チームからの支援を待たずにチームが実験できる安全なスペースを立ち上げましょう。エンジニア、PM、インターン、懐疑的なベテランなど、誰にでもアイデアをテストさせ、結果を記録してもらいましょう。実験を追跡し、効果のある実験をスケーリングします。

これを試して
「私たちの哲学は、1000本の花を咲かせることです... 組織のどこかにいるPMかもしれませんし、1週間前に入社したばかりの新しい投資家が『顧客との電話にはもっと良い方法はないか?』と言ったかもしれません。」
ソーニャ・フアン、
セコイア・キャピタルパートナー

専門家向けの最高のツールを買いだめしないでください

複数の企業が、自社の最強の AI ツールやモデルをエンジニアリングチームやデータチーム用に予約しているという話を聞いたことがあります。Shopifyはその逆です。誰でも、どの機能でも、すべてのモデルを使用できます。彼らの主張は、価値の高いユースケースはどこからでも生まれる可能性があるということです。そして、最も早く採用されたのは、エンジニアリングではなく、営業とサポートでした。

AIのブレークスルーはイノベーションラボだけで起こるものではありません。Sequoia CapitalのパートナーであるSonya Huangが強調したように、最高のAIアイデアは必ずしも当たり前の場所から生まれるとは限りません。「私たちの哲学は、1000本の花を咲かせることです... 組織のどこかにいるPMかもしれませんし、1週間前に入社したばかりの新しい投資家が『顧客との電話にはもっと良い方法はないか?』と言ったかもしれません。」

これを試して

最高のAIモデルやツールを配給しないでください。あなたの最大の勝利は、あまり目立たない場所から来るかもしれません。Huangが言うように、「長い目で見れば、個人の創意工夫に賭けるのは難しい」。

これを試して

人々に AI 実験に専念する時間を与える

インタビューでよく取り上げられたテーマの 1 つは、人には AI を試す時間が必要だということです。Canvaの共同創設者兼最高製品責任者であるDavid Adams氏は次のように振り返っています1、「チームメンバーは、すでに忙しいスケジュールに学習を詰め込もうとするよりも、AI の探索と実験にもっと時間が必要だと言っていました。」組織を問わず、リーダーたちは同じ課題を訴えました。AI を使用する際の最大の障壁は、恐れや関心の欠如ではなく、時間の不足です。

そこで、2025年7月、Canvaは5,000人の従業員に「AIディスカバリーウィーク」のために本業を丸1週間休ませました。「Canvanauts」(同社の従業員)は5日間にわたり、ワークショップ、ハッカソン、オープンエクスプロレーションに参加し、自信を高め、不安を浮き彫りにし、新しいユースケースを発見しました。

これを試して

AI 学習のための保護時間を確保しましょう。一週間である必要はありません。月に1日または午後から始めましょう。ツール、ガイド付きセッション、実験スペースへのアクセスを提供します。従業員には、それがどのように仕事を変えることができるかを理解するための時間と許可が必要です。

これを試して

「空白ページ」を保護する

AIは「空白ページ症候群」の治療法としてよく売り込まれます。しかし、証拠はまちまちです。いくつかの研究は、初期のAIインプットが創造性を高めることができることを示唆しています1。他の人はそれが思考を狭める可能性があることを示しています。報告されたSATスタイルのエッセイを書く学生を対象としたMITの研究を考えてみましょう2ザ・ニューヨーカー 「AIが私たちの思考をいかに均質化しているか」に関する記事。MITの研究者は、LLM使用者が脳内のアルファ波接続性の低下を示していることを発見しました。これは、独創的な思考と創造の流れに関連する信号です。さらに、LLMユーザーが書いたエッセイは、「一般的な言葉やアイデアに集中する傾向があり」、「アウトプットは互いに非常に似ていた」のです。

違いは、人々がAIを使ってアイデアを生み出すのか、それとも創作プロセスの初期段階で時期尚早に絞り込むのかにあるようです。

  • AIは、複数の多様で予想外の出発点を提供することで、クリエイティブなプロセスをすぐに開始できます。
  • しかし、それがアンカリング(人々を最初のアウトプットに導く)を生み出すと、最高のアイデアが浮かび上がることが多い、創造性の乱雑で価値の高い部分を短絡させる可能性があります。

そのため、AI を招待するタイミングと参加させないタイミングを意図的に区別するクリエイターもいます。行動科学者で作家のリンゼイ・コーラーは、初期の大まかな草稿を乱雑で断片化し、完全に人間味のあるものにすることで、定着を避けています。そこで彼女のアイデアが形になります。その後、AIの登場により、彼女は構造を固め、対話を磨き、ペースを調整し、的を絞った回答を得るための学術論文の検索に役立ちます。

これを試して

クリエイティブな仕事で AI をいつ使うべきかについて、チームの規範を設定しましょう。たとえば、最初のドラフトは人間でなければなりません。AIを導入するときは、ダイバージェンスに活用してください。10 種類のワイルドカードアイデアを作成してもらったり、盲点を明らかにしたり、エッジケースを探したりするよう依頼してください。

これを試して

スピードバンプを作ってクリエイティブなプロセスを守ろう

ノーベル賞受賞者ダニエル・カーネマンの研究1 人間の心は2つの思考様式で動いていることが分かります

  1. システム1(ファーストシンキング): 直観的、迅速、そして自動です。
  2. システム2(スローシンキング): 熟慮深く、努力し、分析する。


クリエイティブな仕事では、どちらのシステムも重要です。システム1は迅速なつながりや大胆なアイデアを生み出すのに役立ちますが、システム2は熟考、テスト、改良のために時間を短縮します。最高のアイデアは、人とチームが 2 つの間でスムーズに移動するときに生まれます。フォーチュン50企業のあるアドバイザーが私たちに説明したように、AIは創造性に関する作業(研究、プロンプト、アイデア構築など)をスピードアップできますが、創造性そのものは依然として厄介で非効率的です。彼はこう言いました、

「AI はインスタントコーヒーのようなものです。いつでも利用できるし、速いし、ピンチでも十分だ。しかし、Kカップだけで生活していると、本物の淹れ方を忘れてしまい、時間と技術から生まれる豊かな味わいを見逃してしまう危険があります。」

AI はファストモードで成功します。つまり、データを取り込み、オプションを提示し、人間には対応できないペースで実行します。共著者のクリス・イェーとして ブリッツスケーリングと、説明してくれました。AI は、リサーチ、プロンプト、アイデアの足場構築など、創造性に関するタスクをスピードアップできますが、創造性そのものは依然として厄介で非効率的です。彼はさらにこう語ります。「AI はインスタントコーヒーのようなものです。いつでも利用できるし、速いし、ピンチでも十分だ。しかし、Kカップだけで生活していると、本物の淹れ方を忘れてしまい、時間と技術から生まれる豊かな味わいを見逃してしまう危険があります。」

だからこそ、行動科学者で作家のリンゼイ・コーラーと同様に、彼はインキュベーションをスキップしないように警告したのです。彼のルールは、自分の考えが浸透するまでの間、人工知能を持ち込まないこと。

これを試して

クリエイティブなプロセスや戦略的なプロセスにAIを組み込むときは、スローモードを守りましょう。意図的な一時停止を組み込み、チェックポイントをスケジュールし、AIが生成した最初の回答を出したいという誘惑に負けないでください。

これを試して

AIがスピードアップすべき分野とすべきでない分野を明確にする

スローシンキングを守るのは、一時停止を追加することだけではありません。重要なのは、プロセスのどの部分が最も重要かを知ることです。それがペリー・クレバーンがローンチパッドを教えることから学んだことです1は、過去15年間、スタンフォード大学d.schoolで率いてきたスタートアップアクセラレーターです。クレバーンはここ数年、彼が毎年教えている10~15の創設チームにAIがどのように役立つ(そして妨げになる)かを実験してきました。彼は常に、これらの創業者にAIのスピードから恩恵を受けるスタートアッププロセスの段階と、洞察と独創性を生み出すために人間の遅さを必要とする段階について考えるよう圧力をかけ、指導しています。

これを試して

「AIはどこで役立つのか?」と尋ねる代わりに「今、自分に必要なのはどんな思考か?速いか遅いか?」と尋ねてみてください。次に、ツールをテンポに合わせます。

  • スピードが必要な場合: 50のインタビューをまとめたり、ビジュアルオプションを生成したり、コピーをプレッシャーテストしたりするなど、パターン認識、合成、スケーリングなどのメリットがあるタスクをAIを使ってやり遂げましょう。
  • 速度を落とす必要がある場合: 感覚、判断、感情の共鳴など、人間の質感に依存する作業には、一時停止を押してください。
これを試して

「イージー・カム・イージー・ゴー」症候群に注意
有望なアイデアに固執せず、苦労するかもしれません

ロバート・チャルディーニのクラシックブック 影響1 人間関係、プロジェクト、またはアイデアに力を注ぐ人が多ければ多いほど、将来それを機能させることに強くコミットするようになることを文書化しています。心理学者はこれを「労働は愛につながる」効果と呼んでいます。人々は苦労して得た行動方針に固執して、自分自身や他の人への努力を正当化します。

Cialdini氏が言うように、スタンフォード大学の講師であるPerry Klebahn氏は、AIによって実現されるプロトタイピングのスピードと容易さ、つまり労働力の不足は、彼のLaunchpadアクセラレータを使用している創業者が、有望なアイデアを開発するために過去ほど懸命に努力せず、苦労していることを意味すると語っています。プレAIで立ち上げられた125社以上の新興企業の創設者は、この「気軽にやって来る」というシンドロームに陥りにくい傾向にありました。有望なアイデアの開発は遅く、より困難で、よりフラストレーションがたまるため、彼らはより献身的だったようです。

クレバーン氏は、こうしたコミットメントの欠如の明らかな兆候として、創業者はしばしば、人工知能が生み出した概念を「このアイデア」と三人称で語っています。以前は、遅い方法を使っている学生が「私のアイデア」や「私たちのプロトタイプ」と言っていました。人工知能を活用したアイデアは簡単にまとめられるため、創業者はそれを改良したり、テストしたり、販売したりすることをあまり強く求めません。マサチューセッツ工科大学の研究2 これにも反論しました。AIを使ってエッセイを書いた学生は、自分の作品に「所有権をまったく感じなかった」と言っていました。

ただし、この「イージー・カム・イージー・ゴー」効果には大きな利点があります。AI を使用してプロトタイプを作成するのに必要な労力がないということは、人々が悪いアイデアに不合理にこだわる可能性が低くなることを意味します。また、最初は良さそうだったが、さらにテストを行うと、悪いアイデアや非現実的であることが明らかになったアイデアを簡単に引き出すことができます。

これを試して

AI を使用してアイデアの生成を加速する一方で、テスト、反復、ピッチングといった重要なプロセスを遅らせることで、人々はアイデアを自分のものにすることに投資します。ただし、アイデアを特定したりテストしたりするのに多大な労力を費やしたからといって、アイデアに不合理にこだわることには注意してください。

これを試して

AI 実験の大半が失敗することを想定して計画を立てる

多くの AI イニシアティブは、皆さんの希望や予感、期待に応えられません。私たちが話を聞いたリーダーの何人かは、AIイニシアチブの失敗率を約80%と予測しました。ある人が強調したように、イニシアチブが成功するという説得力のある証拠が得られるまで、仕事の再設計や再配分は行いません。AIは、人間の労働者が社内で行うことを強化または置き換えるために使用できます。

確かに、最近の調査1 中規模企業および大企業のリーダー1,000人のうち、多くのリーダーが、人をAIに置き換えるという軽率な人事上の決定を後悔していると回答しています。英国を拠点とするソフトウェア企業Orgveの調査では、調査対象のリーダーの39%が「AIを導入した結果、従業員を解雇した」と報告しています。しかし、これらのリーダーたちが行ったレイオフを振り返ってみると、「55% が解雇について間違った決定をしたことを認めています」。

これを試して

(おおよそ)80/20の比率を念頭に置いた予算とスタッフ。AI 実験の大半は失敗するだろうということを前もってチームに伝えておきましょう。確かな実績を持つベンダーと提携して、オッズを向上させましょう。始める前に「キルクライテリア」を定義し、テストに時間制限を設けて、弱いアイデアを人々が黙らせることを期待し、健全なものにしましょう。そうすれば、失敗によるコストは抑えられ、勝者は成長のための酸素を手に入れることができます。また、時期尚早に仕事を排除したり再設計したりすることもなくなり、それに伴う従業員のパフォーマンス上の問題や恐れも回避できます。

これを試して
「AIはあなたのアイデアを引き立てます。」
ヒラリー・グリドリー、
Whoop コアプロダクト責任者

AIのお世辞の罠に注意

2025年4月、オープンAIはロールバックしました1 最新モデルが AI のサイコファンシーという悪いケースを発生させたことを発見した後の製品アップデートで、過度に好意的だったり、お世辞になったりする傾向がある。アンソロピック社による研究2 人々がAIの回答を評価すると、たとえその回答の正確性が低くても、自分の見解と一致する回答に報酬を与える傾向があることがわかりました。その結果、人間のフィードバックに基づいてトレーニングされたモデルでは、お世辞を言うほどスコアが高くなることを学習します。その結果、真実性を犠牲にしても、意図せずに熱狂的な態度を取るように教えられてしまいます。

それはイノベーションにとって有害です。サイコファンティックなAIはあなたの思考に挑戦しません。バターになるよWhoopのコアプロダクト責任者であるHilary Gridleyは、「人工知能はアイデアを引き立てる」と言っています。だからこそ、彼女は「これはいいアイデアですか?」と尋ねるのをやめることを勧めているのです。、検証が必要な質問です。代わりに、「どのような状況でこれがうまくいかないのか」と尋ねてください。または「これを肯定的に受け取らない人がいるでしょうか?」

確かに、2025年には3 調査の結果、「何が足りないのか?」のような短い「挑発」が見つかりました。または「反対の視点を生成」することで、ユーザーはAI出力にラバースタンプを押す必要がなくなりました。こうした小さな微調整によって、批判的思考が取り戻され、反省が強制され、AIは怠惰な近道から真の思考パートナーへと変わりました。

そして、こうした挑発が、従業員の仕事量、スキル、ワークスタイルを理解する仕事用AIプラットフォームから来ると、さらに賢くなります。彼らはそれを明らかにするかもしれません:

  • 副社長はまだあなたのチームを信頼していないので、大胆な「革新的」な売り込みは、先見の明があるというよりはむしろ無謀なものになります。
  • ムーンショットのアイデアは、未完成の実験にまだ埋もれているチームメイトのエネルギーを奪います。
  • 前四半期の製品の欠陥にまだ不満を抱いているお客様には、洗練された新しいコンセプトに聞こえるかもしれません。

場合によっては、アイデアが浮かぶか、裏目に出るかを決定する文脈的、関係的、感情的な要因を精査する上で、人間の判断が役立つことがあります。

これを試して

Gridleyのアドバイスに従い、AIアシスタントに次の大きなアイデアをストレステストしてもらいます。良いかどうかを判断するのではなく、どこがうまくいかないかを明らかにすることです。次に、そのリストをチームに持ち込み、人間が判断して、どのリスクがイノベーションの真の障壁であるかを評価します。

これを試して

ベンチャーキャピタリストのようにAIプロジェクトに確率的賭けをする

AIプロジェクトの失敗率が高いことを踏まえ、TelusのAI担当副社長であるAlexandre Guilbaultは、リーダーにAIベットをベンチャーキャピタルのポートフォリオのように考えるよう促しています。おそらく400万ドルしか成功しないとわかっていれば、2,000万ドル相当のチャンスを後押しするかもしれませんが、それらの勝利はミスをカバーする以上のものです。

ギルボーは「リスク加重ROI」の使用を提案しています。紙の上では、2つのAIプロジェクトがそれぞれ1,000万ドルの利益を約束しているかもしれません。しかし、一方の成功確率が 90% で、他方が 30% しか成功しないというのが最善の推定であれば、これらは同等の賭けとは言えません。適切に重み付けすると、成功確率が 20% の「1,000万ドル」のプロジェクトは、実際には200万ドルのプロジェクトです。

もちろん、誰の水晶玉も透明ではありません。ベンチャーキャピタリストやAIリーダーは(他の人間と同じように)どのベットが勝つかを見極めるのが苦手です。ノイズや不確実性が高すぎるからです。しかし、大まかな確率でもより良い会話が強制されます。確率論的に考えることで、すべてのピカピカのプロジェクトが勝者となるファンタジーランドから、現実に考え方が変わります。

これを試して

すべてのAIプロジェクトが投資の全額を回収することを期待しないでください。ましてやそれ以上は言うまでもありません。各プロジェクトの予想収益に、そのプロジェクトの成功確率の最良推定値を掛けて、その計算に基づいて資金調達の電話を行います。オッズがわからなければ?私たちが話を聞いた何人かのリーダーが注目していたベンチマークを使用してください。初期のAIイニシアチブのうち、成功するのは約20%にすぎません。

勝者を倍増させ、敗者から迅速に選別して学び、プロジェクトレベルではなくポートフォリオレベルで結果を祝いましょう。

これを試して

従業員を「カスタマーゼロ」として扱う 特に最も厳しい評論家

顧客に販売するAIツールを構築しているのであれば、部外者がその欠陥を露呈するのを待たないでください。アドビはしません1。たとえば、2023年にジェネレーティブAIツールFireflyを導入したとき、何千人もの従業員が「顧客ゼロ」になりました。彼らはバグを発見しただけでなく、予想外のユースケースを浮き彫りにしたり、リスクを報告したり、機能を改良したりしていました。それが顧客に届く頃には、製品を徹底的に知っている従業員という、最も厳しい批評家たちからも受け継がれていました。

これを試して

従業員を「カスタマーゼロ」として扱ってください。新しいツールを早い段階で手に入れ、率直なフィードバックや洞察を活用してロールアウトを強化しましょう。

これを試して

AIが人々の行動に取って代わることができない分野でのイノベーション

AI はスピードと効率を左右します。より速く、より安価であることは、もはや競争優位ではなく、多くの場合、それがベースラインとなっています。

本当の利点は、機械では再現できない部分、つまり信頼、思いやり、感情的なつながりにあります。AirbnbのCEO、ブライアン・チェスキーはこれに傾倒しています。1プライベートシェフやフォトグラファーなどのサービスにも拡大しています。これらはプロセスの時間を短縮することではありません。どんなアルゴリズムにも代えがたい喜びの瞬間を作り出すことが目的です。

これを試して

製品またはサービスを監査します。人の話を聞いたり、驚かせたり、思いやりをもったりして、体験をより良くするタッチポイントを強調しましょう。それらを保護してください。ダブルダウンしてそれらを競争の中心に据えてください。

これを試して
テーマ 08

リーダーシップ

リーダーは今、自分の仕事についてどう考え、何をすべきか?同じものは何ですか?これまで以上に重要なことは何ですか?どのような古い行動を断念すべきか?
AI 時代では、リーダーシップが刷新されています。計画、分析、日常的なコミュニケーションなど、仕事の一部は自動化することも、大幅に拡張することもできます。信頼を得る、礼儀正しさを体現する、厳しい電話をかける、存在感を示すなど、それ以外はより重要です。 
これまで以上に。難しいのは、どの部品を機械に任せるべきか、そしてどの部品を完全な人間として引き継ぐべきかを知ることです。
「[AIの採用] は、上層部がテクノロジーを使用しているのを見たときに広がります。」
メリンダ・フェル
創設者、コンプリートリーダー

AI を使用すれば、チームも使用します
そして、あなたは教育と学習の好循環を促進します

AIの採用は、政策メモや経営幹部の激論だけでは広まりません。Complete Leaderの創設者であるMelinda Fellが語ったように、「上層部がテクノロジーを使用しているのを見ると広がります」。ワークライティクスによるリサーチ1 マネージャーの行動は、他のどの要因よりもAIの採用を予測することがわかりました。マネージャーが週に5回以上AIを使用する場合、採用率は 75% に上昇します。インタビューを行ったフォーチュン50企業の1つでは、リーダーはAIについて話しているだけでなく、それを目に見えるようにしています。経営幹部はスタッフ会議でツールのデモを行い、1対1の会議ではAIツールを展示し、AIが自分の仕事にどのように役立つかをリアルタイムで示します。

ある上級副社長は、「デスクトップ(AI アシスタント)を文字通り常に開いておいて、ツールの使用方法を示したり、デモンストレーションしたり、ロールモデル化したりしているリーダーの例があります。」

これを試して

人々にAIを使うように言うだけではいけません。模範を示して、あなたもそれを使っていることを証明してください。会議中に AI アプリやインターフェースを起動し、実験中のプロンプトを共有し、間違いについても率直に話しましょう。

これを試して

組織に AI リズムを組み込む

人と同じように、組織もリズムに基づいて運営されています。ミーティング、予算、業績評価など、これらすべてが仕事の進め方のペースを決めます。問題は、ほとんどの企業が AI を副次的なプロジェクトとして扱っていることです。つまり、あちこちで予定から外れてしまいました。安定したビートがなければ、養子縁組は失敗します。AIがあれば、AIは組織のハートビート、つまりベンチャーキャピタリストのジョン・リリーが言うように「組織の鼓動」の一部になります。リズムを共有することで、人々は日常業務に AI を組み込み、いつ注意を向けるべきかがわかり、全社で AI の取り組みを同期させることができます。

フォーチュン20企業のある小売業者の人事担当役員は、この組織がどのようにしてこのようなAIリズムを作り出したかを説明しました。

  • 一番上: 同組織のCEOは、数百人の副社長との毎月の会議で、AIを常設トピックとして掲げています。
  • 機能全体: 部門横断的な運営委員会が定期的に会合を開き、財務、人事、技術、ビジネス全体にわたる採用、ガバナンス、ユースケースについて議論しています。
  • 地上で: すべてのスタッフ会議は、AIに焦点を当てた常設議題という同じ儀式で終わります。リーダーは交代で、自分が試みていること、うまくいっていること、うまくいっていないことを紹介します。
これを試して

エグゼクティブフォーラム、部門横断会議、チームミーティング、個別のルーチンなど、組織の複数の層にまたがる AI の運用リズムを作りましょう。

これを試して

システムがもたらす報酬を調べてみよう。AIは、欲しいかどうかに関わらず、より多くのメリットを与えてくれる

私たちが話をしたリーダーの多くは、AIは拡大鏡のようなものだと説明しました。これにより、カルチャー、データ、ワークフローにすでに存在するパターンが増幅されます。ノースウェスタン大学のハティム・ラーマン教授が語ったように、「AIは私たちが望むものをさらに増幅するためのツールを与えてくれます。」しかし、自分の目標をもっと深く考えれば、それ以上は「欲しい」とはまったく思えないかもしれません!

あなたの文化が厳密さよりもスピードを重視するなら、AIはだらしない仕事を大規模にこなすでしょう。営業文化がどんな犠牲を払っても成約に報いるのであれば、AIは顧客との信頼を失いながら短期的な成功を倍増させるでしょう。マネージャーが成果よりもプレゼンティーイズムを重視するなら、忙しそうに見えてもビジネスを前進させないようなアクティビティ指標やダッシュボードを AI が作り出します。

これを試して

AI を導入する前に、「増幅監査」を実施してください。質問:

  • スピード、コンセンサス、リスクテイク、正確性など、どのような行動が報われるのでしょうか?
  • AIがそれらの行動を2倍にしたとしたら、それは良いことでしょうか、悪いことでしょうか?
  • 悪者が拡大するのを防ぐには、どのような保護手段が必要ですか?
これを試して

高い値から大胆な(しかし滑りやすい)「手を振る」指標は避けてください

経営幹部が AI について話すとき、「生産性の2倍」や「効率の10倍」といった数字をあちこちに投げかけがちです。Genの最高AIおよびイノベーション責任者であるHowie Xuは、このような「手を振る」指標に対して警告しました。

トップダウン型のAI指標は滑りやすく、誤解されやすいと説明しました。「2倍の生産性」は大胆に聞こえるかもしれませんが、彼が言うように、「影響の70%はAIとは関係がないかもしれません」。さらに、「こうした抽象化やトップラインの指標だけを注意深く使わないと、実際のAIトランスフォーメーションとは何かについて混乱を招き、最悪の場合、さらに官僚主義が強まる」と付け加えました。

リーダーが「2倍の生産性」のような漠然とした目標を設定すると、組織はその数字を現実のものにしようと奮闘します。チームごとに解釈が異なり、成功が何を意味するのか誰も知らず、ダッシュボード、大量のスプレッドシート、洗練されたサクセスストーリーに何時間も費やされます。

これを試して

ビジネスの運営にすでに使用しているのと同じ KPI で AI を測定します。大げさな掛け算ではなく、具体的で信頼できるワークフローレベルの改善:

  • CEO: 意思決定の迅速性、会議の効果、投資収益率、優秀な技術人材を引き付ける能力。
  • エンジニアリング:開発サイクルの短縮、コードの簡潔化、インシデントの文書化に費やす時間の短縮。
  • 営業:より的確な見込み客調査、アウトリーチ速度の向上、成約率の向上
  • サポート/IT: チケットの迅速な解決、ディフレクションの増加、満足度スコアの向上
  • 人事:オンボーディングの時間が短縮され、ポリシーのナビゲーションが容易になり、日常的な質問に費やすマネージャーの時間が減ります。
これを試して
「どの患者様がノーショーになる可能性が高いかを予測できましたし、ダブルブッキングも可能です... そして今では、医師は2人の患者を診察しなければならない可能性があるため、どちらの患者さんも診察時間を短縮できます。または、配車サービスに電話して、来ない可能性が高い患者をここに連れてくることもできます... 同じアルゴリズム、異なるワークフロー。」
マイケル・フェファー、
CIDOおよびスタンフォードヘルスケアおよび医学部の副学部長

仕事量を増やすためだけにAIを使うのはやめましょう
仕事をより良くするために使ってください

もう 1 つよくある落とし穴は、AI を使用してより多くの仕事をこなすことです。短時間で送信されるメールが増え、1 日あたりの診察患者が増え、担当者あたりの対応アカウント数が増えます。しかし、仕事をより速く、より安価にすることに焦点を絞りすぎることによってもたらされる害を無視したり、軽視したりしています。

Michael Pfeffer は、ワークフローを理解せずに効率的なスループットに絞って焦点を絞らないように警告しました。彼は、どの患者がノーショーの予約になりやすいかを予測できるAIの例を挙げました。費用対効果の高い戦略は、これらの患者をダブルブッキングすることです。これにより、システムのスループットが最大化されますが、両方の患者が予約に来たときに不足することになります。Pfefferは、より良いアプローチは、そもそも人々が予定を逃す原因となる障壁を減らすことだと提案しました。アポイントメントまで乗車するのに苦労している人のための交通手段の手配など。彼はこう付け加えます。「どの患者がノーショーになる可能性が高いかを予測できて、ダブルブッキングも可能です... そして今では、医師は2人の患者を診察しなければならない可能性があるため、どちらも受ける時間が短くなります。または、配車サービスに電話して、来ない可能性が高い患者をここに連れてくることもできます... 同じアルゴリズム、異なるワークフロー。」

これを試して

AIが時間の節約につながったとしても、システムのボリュームを増やすことが最善の答えだと自動的に思い込まないでください。人間は「付加病」に苦しんでいます1」: 減算や改善よりも足し算を優先するバイアス。他の患者を押し込んだり、別のメールを送信したり、別のプロジェクトに取り組んだりしようとするひざまずくような反応に注意してください。明確なガードレールを設けて、「余分のキャパシティ」が、ただ速くハンドルを回すのではなく、より質の高い、より人道的な仕事(傾聴、助言、設計)に投資されるようにします。例えば:

  • 医療分野では、ダブルブッキングではなく、空いた時間をより長い患者の診察に充てるようにするポリシーを設定してください。
  • 営業では、AI によって営業担当がアウトバウンドメールだけでなく、より多くの時間をディスカバリーコールに費やせるようになるかどうかを追跡します。
  • エンジニアリングでは、AIサポートがインシデントの時間を短縮し、より良いシステムの設計に費やす時間を増やすかどうかを測定します。
これを試して
「(AIがレポートの作成に役立ったため)3時間を節約しても、その3時間が生産的に使用されるとは限りません。」
アレクサンドル・ギルボー、
東京ユーラス AI 担当副社長

AI による時間の節約が実際にどこで実現するのかを把握しましょう

最近の大規模研究1 25,000人の従業員を対象に、ジェネレーティブAIによる時間の節約のうち、実際に収益に結びついたのは約3~7%にすぎないことがわかりました。Alexandre Guilbaultが語ったように、「(AIがレポートの作成に役立ったため)3時間を節約しても、その3時間を生産的に使用することは保証されません。」人々はAIを使って仕事を早く終わらせますが、余った時間は組織の利益のためではなく自分のために使っています。ギルボーが言ったように、「[人々は] コーヒーマシンで過ごす時間が増えているだけかもしれません。これは必ずしも悪いことではありませんが、必ずしも収益に影響するわけではありません。」

そのため、AIを使って仕事を早く終わらせながら、余分な時間を自分のために使う人もいます。忙しそうに見えて、Slack のメッセージを発信したり、他のナンセンスなことをして一生懸命働いているように見せかけて時間をつぶしているかもしれません。SAPによる2025年の調査2 4,000人を超える社会人のうち、回答者の5分の1が、マネージャーにもっと期待する理由を与えるよりも、AIで節約した時間を隠したいと答え、そのような「生産性シアター」を助長しています。

これを試して

節約できた時間が、有効に使った時間だと思い込まないでください。それを証明してください。従業員を調査して、AI の「残業時間」で実際に何をしているのかを調べましょう。エンジニアはより多くの未処理項目をクリアしていますか?営業担当は顧客との会話により多くの時間を費やしていますか?答えがまとまって目に見える成果が得られない場合、その時間は多忙な仕事に漏れている可能性があります。

これを試して
「労働者を直接関与させることは、経営幹部が見落としがちな日々の現実を明らかにするだけでなく、最前線の役割が取り残されたり、見過ごされたりしないように、新しい道筋を見つけるのにも役立ちます。」
ローレン・パスクアレラ・デイリー、
未来の仕事担当アソシエイト・バイスプレジデント

「高次作業」を副業として使うのはやめましょう

リーダーは、「忙しい仕事をAIが引き受けてくれるので、より高次のタスクに集中できる」という一線を画すのが大好きです。Udemyの暫定最高学習責任者であるレベッカ・スターンは、このスローガンが最前線の役割にとって特に誤解を招く可能性があることを説明してくれました。若手従業員や業務の多い仕事をしている従業員は、日々戦術的なタスクに費やしています。シフトのスケジュール設定、注文の処理、サポートチケットへの回答、物理的な機械の稼動の維持など、解放されるのを待っている「戦略的思考」や「イノベーション」などのいわゆる高次的な仕事は、ほとんどありません。移行すべき「高次」のタスクはないため、機会ではなく消耗品であることを心配しています。

これを試して

「AIが忙しい仕事を引き受けて、より高次の仕事に集中できる」というスローガンは、主に日常的で戦術的な仕事をする従業員を遠ざけ、恐怖を煽る可能性があることに注意してください。代わりに、Lauren Pasquarella Daleyは、あらゆるレベルの従業員を対象に「タスクマッピング」ワークショップを開催して、AIが置き換えたり、置き換えたり、増やしたり、向上させたりできるタスクを確認することを推奨しています。「労働者を直接関与させることは、経営幹部が見落としがちな日々の現実を明らかにするだけでなく、最前線の役割が取り残されたり、見過ごされたりしないように、新しい道筋を見つけるのにも役立ちます。」

これを試して

AIが雇用保障にとってどのような意味を持つのかを従業員に明確に伝える

2025年4月、ShopifyのCEO、トビ・リュトケは従業員にこう語りました。1 「反射的人工知能の使用が今や基本的な期待値になっている」と。このメモは、AIスキルが業績評価の一部になることを従業員に通知しました。また、チームは人員を増やすようリクエストする前に AI を使い果たしたことを証明する必要もありました。

このような断固たるリーダーシップ、つまり AI の採用に対する全社的な明確なコミットメントは、AI の導入と利用を促進します。しかし、それが心理的安全性と透明性と組み合わなければ、裏目に出る可能性があります。私たちが知っているある大手不動産会社では、ある幹部が、CEOがどのようにして誰もが「AIをデフォルトにする」必要があると宣言し、社内のGenAIツールの週ごとの使用状況を追跡し始めたかを説明しました。従業員はこの種のメッセージを「人工知能を使うか」と解釈し、遅れずについていかなければ(または「AIシアター」の芸術を実践しなければ)自分の仕事や同僚の仕事が消えてしまうという合図として読んでいます。

これを試して

生存不安を引き起こすことなく、期待を明確にしましょう。移行を通じて従業員がどのようにトレーニング、サポート、評価されるかを伝えてください。レイオフが近づいている、または可能である場合は、それについても前もって伝えてください。従業員にコミュニケーションをとることで、破壊的な恐れや不安を和らげることができます2 特定の期間、たとえば、翌月、3か月、6か月間など、仕事が安全であること。この予測可能性により、従業員は絶え間ない心配から解放され、苦痛が軽減され、助けになります。

これを試して
「従業員がAIツールを使用して、話すべきことを提案したり、重要な更新内容を要約したりすることで、マネージャーと1対1の時間を最大限に活用する機会があります。」
リリー・チャン、
Instacart、エンジニアリング担当副社長

AIを活用して、マネージャーがよりフラットな組織や大規模なチームに対応できるように支援する

私たちが話を聞いた多くのリーダーは、フラットニングを今の流行だと説明し、多くの場合、マネージャーはより直属の部下を引き継いでいます。

リリー・チャンが語ったように、「従業員にはAIツールを活用して、話すべきことを提案したり、重要な最新情報をまとめたりすることで、マネージャーと1対1の時間を最大限に活用する機会があります。」

AI はリーダーシップにおける人間同士のつながりに取って代わることはできませんが、能力を伸ばす必要がある場合は、各人が取り組んでいることを明らかにしたり、障害となっているものを指摘したり、論点を提案したりして、調整の負荷を引き継ぐことができます。

これを試して

直属部下が多数いる場合や、その数が増え続けている場合は、AI を使用して管理上の面倒を取り除き、問題点や課題を特定し、チームメンバーとのコミュニケーションをスピードアップして改善する方法を見つけましょう。ダッシュボードやステータスドキュメントに目を通す必要がなくなるため、リーダーがやるべきこと、つまり方向性の設定、コーチング、信頼の構築に集中できます。

これを試して

もちろん、AI を使ってパーソナルボットをトレーニングしましょう
しかし、それが本当にあなたではない場合は、人々に知らせてください

2024年、ハーバード大学のラージ・チョードリー教授のチームがAIを訓練しました1 ZapierのCEO、ウェイド・フォスターのコミュニケーションスタイルを模倣するボット。従業員がこのデジタルドッペルゲンガーとやり取りしたとき、実際のCEOとボットの違いを見分けることができたのは、59% の確率でしかありませんでした。

しかし、従業員の場合 信じた ボットから返答があり、実際にはCEOのフォスター自身からの回答であったとしても、あまり役に立たないと評価されました。社員は、あなたの言葉だけを求めているのではなく、あなたがその言葉の背後にいることを望んでいます。

これは古い現象の新しい表現です。AIが登場するずっと前から、リーダーはメールや「個人的な」テキストさえもアシスタントに委任したり、署名付きのソーシャル投稿をスタッフにゴーストライターで書かせたりしていました。従業員やフォロワーが気づいたときの反応は同じです。信頼が減り、重要性が減り、言葉が本当に重要だという信念が減ります。

これを試して

AIを使ってコミュニケーションを広げるなら、そう言ってください。いつがあなたで、いつがボットなのかを明確にしましょう。そうしないと、チームから望み、必要とする信頼が損なわれるリスクがあります。

これを試して

宿題は済ませて、魂のないAIの存在は捨てましょう

人工知能が生成する全員参加型のスクリプトやメモによって、連絡が取れていないリーダーは、あまりにも滑らかで、本物らしくなく、従業員や顧客から切り離されているように聞こえることがあります。何十年もの間、クライアントがより良いスピーチをしたり、より良いストーリーを伝えたりできるよう支援してきたCEO兼作家のナンシー・ドゥアルテは、このAI時代にそれを発見しています1、彼女が一緒に働くリーダーの多くは、「人々に気を配ってもらう準備ができている部屋に入る能力がない」。最高のコミュニケーターは今でも多くの宿題をしますが、人々はリーダーの不完全でフィルタリングされていない存在を切望していることを知っています。彼らは、「私は本物だ、私はあなたと一緒にいる、あなたは私を信頼してくれる」と伝えるような、一時停止、荒削り、人間性のかけらを求めています。

ただし、一部の仕事では、その人間味はそれほど重要ではありません。ウォートン教授のリンジー・キャメロンは、多くのギグワーカーが実際にはアルゴリズムによる管理を好むことを発見しました。彼女の7年間の研究で2 配車サービスのドライバーの多くが、AIを活用したアプリのスケジュールの柔軟性を高く評価していると回答しています。1日に何百回もの迅速なやり取り、絶え間ないフィードバック、偏見のある上司や細かく管理する上司からの解放などです。キャメロンは、これらのシステムが彼女が「選択に基づく同意」と呼ぶものを生み出していることを示しています。厳しい制約の中でも、労働者は主体性と習熟感を感じて、仕事に従事し続けます。彼らにとって、アルゴリズムによる管理とコミュニケーションシステムが役立つのは、マネージャーや同僚の間の感情的なつながりではなく、魅力的なピースレートでタスクを迅速に完了することが仕事だからです。

これを試して
  • 台本が多すぎるので、全員参加でライブのQ&Aセッションに参加できます。しかし、下調べをしておきましょう。会話の目標と「トーン、タイミング、役割」についてパネリストを準備してください。
  • おしゃれなキーノートデッキをチームと交換して、面倒なリアルタイムディスカッションをしましょう。人々の希望や懸念に関する事実、ストーリー、舞台裏の知識を用意しておきましょう。そして、AIはそのような議論に備えるのに役立ちますが、ドゥアルテが言うように、「AIに取って代わることはできないのは、部屋を読む能力です」。
これを試して

J カーブに名前を付ける

リーダーはしばしば AI が短期間で成功することを求めています。しかし現実には、新しいツールや組織プロセスを導入する場合、生産性は向上する前に低下するのが普通です。ノースウェスタン大学のハティム・ラーマン教授は次のように指摘しています。「AIのような新しいテクノロジーを実装することの難しさには、投資する意欲と重要性が必要です。経済学者はこれを... 生産性のJカーブと呼んでいます。」

メールの下書き、メモの要約、定型コードの生成など、最初のメリットはすぐに得られます。しかし、その後、ワークフローの再設計、従業員の再訓練、役割の再考など、より困難な作業が始まります。生産性が曲線の最下位に達するのは、このときです。ラーマン氏は、「これを組織の長期的な変革プロセスと見なす意欲が必要だ」と警告しています。

これを試して

ヒットする前に生産性Jカーブに名前を付けてください。組織全体の仕事の流れを再構築する必要があり、人々が新しいシステムを学び、迅速で効果的かつ革新的な作業を共同で行うには時間が必要であるため、AI によって仕事が速くなる前に作業が遅くなることを想定するようにチームに伝えてください。

これを試して
「多くの労働者は、何かが自分たちの生活を改善するだろうと言われて変化を経験したことがありますが、実際はそうではなく、そのせいで仕事が複雑になったり、解雇されたりしています。ですから、彼らが懐疑的であるのは当然のことです。」
ハティム・ラーマン、
ノースウェスタン大学教授

以前は人々を失望させてきた、大げさな変化を認め、そこから学ぶ

AI は白紙の状態で組織に導入されるわけではありません。ほとんどの職場には、物事を楽にするはずだった過去の「変革」の亡霊が散らばっています。ERPシステムは全員の作業速度を落としていたERPシステム、クリック数を2倍にする新しいツール、明確さよりも混乱を招く組織再編などです。こうした変化の中には、人々に仕事を奪うものもあり、その後、雇用主は彼らのスキルが不可欠であることに気づきました。

ハティム・ラーマン氏は次のように指摘しています。「多くの労働者は、何かが自分たちの生活を改善すると言われたような変化を経験しましたが、実際にはそうではなく、そのせいで仕事がより複雑になったり、解雇されたりしています。ですから、彼らが懐疑的であるのは当然のことです。」

そんな過去のつまずきを無視すれば、信頼を失うことになる。デロイトの「人事の未来」の取り組みを率いるカイル・フォレストは、彼らの研究を紹介してくれました1 その結果、信頼度の高い企業の従業員は、信頼の低い企業の従業員の2倍以上AIの使用に慣れていることがわかりました。

これを試して

新しいAIツールを導入する前に、過去の変更がどのようにうまくいかなかったかを挙げて話し合ってください。これまでに学んだこと、今後取り組むべきこと、そして今度はそれがうまくいったかどうかをどのように測定するかを説明してください。人々の懐疑心、恐れ、提案を認め、耳を傾けてください。

これを試して

3つの質問を使って、大胆な実験を試すべきか、注意深く踏み込むべきかを判断してください。

では、何を試しても安全かをどうやって判断するのでしょうか?まずは、次の 3 つの質問から始めてください。

  1. リバーシブルですか? 失敗した場合、停止したり元に戻したりするのはどれくらい簡単ですか?ジェフ・ベゾスの「一方向」ドアと「双方向」のドアを考えてみてください。双方向ドア(簡単に逆にできるドア)の場合は、もっと早く行きましょう。
  2. 客観的なリスクとは? これが失敗した場合、人々、業績、評判にどれほどの悪影響が及ぶ可能性がありますか?通常、高いアップサイドと低いダウンサイドはベットする価値があります。
  3. 政治的リスクとは? 時として危険なのはアイデアの失敗ではなく、成功して、権力を持った利己的な間違った人々を動揺させることなのです。

これらの3つの質問は成功を保証するものではありません。しかし、ベットを置く場所と控えるべき場所について、大まかな羅針盤を提示してくれます。

そして何よりも、AI は仕事を直すつもりはないことを覚えておいてください。

あなたはそうです。