Skip to main content
Offcanvas
Some text as placeholder. In real life you can have the elements you have chosen. Like, text, images, lists, etc.
What are you looking for?

AI Talent in Pharma: Building Responsible and Scalable Teams

Blog

Discover how AI leaders, explainers and sustainers are shaping AI-ready organizations while ensuring ethical, scalable and impactful AI integration.

In a previous blog post, our experts explored how artificial intelligence (AI) talent in pharma extends beyond data scientists—requiring a balance of leaders, explainers and sustainers to drive AI’s success. But defining roles is just the first step. The next challenge? Ensuring AI is operationalized responsibly.

Explore ways to build up your AI talent and workforce. Contact our experts.

AI’s rapid adoption in pharma brings both opportunities and risks. As companies embrace AI-driven decision-making, they must also implement safeguards—governing its use, mitigating biases and embedding AI expertise across teams. How can organizations democratize AI access while maintaining ethical integrity? How should AI talent be structured to scale AI’s impact without creating silos? 

In this post, Adam Kennedy, VP of Executive Search at TSP K.K., and Shigeto Miyamoto, VP of Digital Solutions, continue their discussion—exploring AI governance, organizational design and the future of AI-driven teams.

AI Ethics & Governance: Balancing Innovation with Responsibility

Kennedy: In our last discussion, we focused on the types of AI talent needed in pharma. But as AI adoption scales, governance becomes a huge issue. How do companies ensure AI operates ethically and effectively?

Miyamoto: This is one of the most critical challenges. AI can be incredibly powerful, but without oversight, it can also introduce bias, compliance risks and reputational damage. That’s why companies need AI ethics and governance specialists—people dedicated to monitoring AI performance, ensuring transparency and preventing unintended consequences.

Kennedy: So it’s not just about making AI work, but making sure it works responsibly.

Miyamoto: Exactly. Take AI-driven decision-making in clinical trials, for example. If an AI system is trained on biased datasets, it could unknowingly exclude certain patient populations from eligibility criteria. Without governance, those biases can propagate, creating ethical and regulatory challenges.

Kennedy: That’s a great example. It shows how AI ethics isn’t just theoretical—it has direct implications for patient outcomes and regulatory compliance.

Miyamoto: Right. And governance isn’t just about catching problems after they arise. It requires proactive monitoring, pre-deployment testing and clear accountability structures. Without that, AI models can drift over time, producing inconsistent or misleading outputs.

Kennedy: So companies need to treat AI governance like a continuous process, not a one-time setup.

Miyamoto: Exactly. That’s why AI sustainers are so important. They ensure AI remains ethical, reliable and aligned with organizational goals. And as AI regulations evolve, sustainers will play an even bigger role in helping companies navigate compliance.

Kennedy: It sounds like AI sustainers act as a safety net for AI adoption. They keep systems accountable and prevent unintended risks from spiraling out of control.

Miyamoto: That’s a great way to put it. Without sustainers, companies might adopt AI too quickly—without thinking through the risks. AI governance isn’t about slowing innovation; it’s about ensuring innovation is sustainable and responsible.

Contributors

Adam Kennedy, VP of Executive Search at TSP

Shigeto Miyamoto, VP of Digital Solutions

Looking Ahead: Designing AI-Ready Organizations

Is your life sciences team equipped for scalable AI?

Kennedy: We’ve talked about AI governance and the need for sustainers to ensure responsible adoption. But what about the bigger picture—how should organizations design their teams and workflows to integrate AI effectively?

Miyamoto: That’s a huge question. AI isn’t something that should sit in a silo. Too often, companies create AI innovation hubs or separate AI teams, but that can slow adoption. Instead, AI should be embedded across R&D, commercial market access and supply chain teams.

Kennedy: That makes sense. AI shouldn’t be an isolated function—it should be woven into the company’s core operations.

Miyamoto: Exactly. And that means companies need to think strategically about balancing external AI expertise with internal talent development.

Kennedy: What do you mean by that?

Kennedy: So, the focus shifts from building AI models to applying AI effectively.

Miyamoto: Right. That’s where AI explainers come in. They help bridge the gap between off-the-shelf AI tools and real-world business challenges. Rather than expecting every organization to become an AI research lab, companies should focus on hiring people who can fine-tune, implement and scale AI solutions.


As AI reshapes the pharmaceutical industry, companies must look beyond technology and focus on talent. Success depends on embedding AI into everyday decision-making, structuring teams strategically and ensuring AI adoption is ethical, scalable and impactful.

With AI leaders driving strategy, explainers adapting AI to business needs and sustainers managing governance, pharma companies can harness AI’s full potential while avoiding the pitfalls of unchecked automation.

Explore ways to build up your AI talent and workforce. Contact our experts.

Contributors

Adam Kennedy | VP of Executive Search, APAC, TSP K.K.

Shigeto Miyamoto | VP of Digital Solutions, APAC

製薬業界におけるAIタレント持続可能で信頼できるチームをどうつくる?

AIリーダー、エクスプレイナー、サステイナー、それぞれの役割が、AIを組織に根づかせ、倫理的かつスケーラブルで、実効性のある導入を実現するカギとなっています。こうした人材がどのように「AIに強い組織」をつくり上げているのかをご紹介します。

前回のブログでは、AIタレントはデータサイエンティストだけでなく、「AIリーダー」「AIエクスプレイナー」「AIサステイナー」という3つの役割が重要であることを紹介しました。しかし、役割を定義するのはあくまで出発点。次の課題は、「AIをどうすれば責任ある形で運用できるか?」という点です。

AIタレントと組織力の強化に向けたヒントを探してみませんか?当社のエキスパートにぜひご相談ください。

製薬業界におけるAIの導入は急速に進んでおり、意思決定の高度化という恩恵をもたらす一方で、リスクも伴います。企業がAIを活用する際には、その使用を統制し、バイアスを軽減し、AIの専門性を組織全体に浸透させるための仕組みが必要です。AIへのアクセスを民主化しつつ、倫理性をどう担保するか?AIのインパクトを最大化しながら、組織の分断をどう防ぐか?

本記事でも、TSP K.K. のエグゼクティブサーチのバイスプレジデントであるアダム・ケネディと、サイネオス・ヘルスのデジタルソリューションのバイスプレジデントである宮本繁人が、AIガバナンス、組織設計、そしてAI主導チームの未来について議論を深めます。

AI倫理とガバナンス:イノベーションと責任の両立

ケネディ:

前回は製薬業界に必要なAIタレントのタイプについて話しましたが、AIの導入が進むにつれて、ガバナンスの重要性が増しています。企業はどうすればAIを倫理的かつ効果的に運用できますか?

宮本:

これは本当に重要な課題ですね。AIは非常に強力なツールですが、監視がなければバイアスやコンプライアンスリスク、さらには企業の評判にまで悪影響を及ぼす可能性があります。だからこそ、AI倫理とガバナンスに特化した専門人材が必要なんです。AIのパフォーマンスを継続的に監視し、透明性を確保し、意図しない結果を防ぐ役割を担います。

ケネディ:

つまり、AIを「動かす」だけでなく、「責任を持って動かす」ことが重要なんですね。

宮本:

その通りです。たとえば、臨床試験でAIが意思決定を行う場合、偏ったデータで学習していると、特定の患者層が無意識のうちに除外されてしまうことがあります。ガバナンスがなければ、こうしたバイアスが広がってしまい、倫理的にも規制的にも大きな問題になります。

ケネディ:

それは非常に分かりやすい例ですね。AI倫理が理論だけの話ではなく、患者のアウトカムや規制対応に直結していることがよく分かります。

宮本:

そうなんです。そしてガバナンスは、問題が起きてから対応するのではなく、事前の監視やテスト、明確な責任体制の構築が必要です。これがないと、AIモデルは時間とともに「ドリフト」して、出力が不安定になってしまいます。

ケネディ:

つまり、AIガバナンスは一度設定して終わりではなく、継続的に取り組むべきものなんですね。

宮本:

まさにその通りです。だからこそ「AIサステイナー」の存在が重要なのです。彼らはAIが倫理的かつ信頼性を保ち、組織の目標と整合するように維持します。今後、AI規制が進化する中で、サステイナーの役割はますます重要になります。

ケネディ:

AIサステイナーは、AI導入における「安全ネット」のような存在ですね。システムの健全性を保ち、リスクの暴走を防いでくれる。

宮本:

その表現はとても的確です。サステイナーがいなければ、企業はリスクを十分に考慮せずにAIを導入してしまうかもしれません。AIガバナンスはイノベーションを止めるものではなく、持続可能で責任あるイノベーションを実現するための仕組みなんです。

寄稿者

アダム・ケネディ | TSP K.K.、APACエグゼクティブサーチ、バイスプレジデント

宮本繁人 | APACデジタルソリューション、バイスプレジデント

次のステップ:AIに最適化された組織をどう設計するか?

ケネディ:

AIガバナンスとサステイナーの重要性について話しましたが、もっと大きな視点で見ると、企業はどのようにAIを組織に統合していくべきでしょうか?

宮本:

これは本当に大きなテーマですね。AIは「サイロ(孤立した部門)」に閉じ込めるべきではありません。多くの企業がAI専任チームやイノベーションハブを設けていますが、それがかえって導入を遅らせることもあります。AIはR&D、コマーシャル、マーケットアクセス、サプライチェーンなど、あらゆる部門に組み込まれるべきです。

ケネディ:

なるほど。AIは独立した機能ではなく、企業の中核に組み込むべきなんですね。

宮本:

その通りです。そして、外部のAI専門知識と内部の人材育成のバランスを戦略的に考える必要があります。

ケネディ:

それはどういう意味ですか?

宮本:

以前は、企業がAIモデルをゼロから構築したり、大規模なAIチームを社内に抱えたりしていました。でも今は、GPTのような汎用AIモデルや事前学習済みのソリューションが使える時代です。テックジャイアントと競うのではなく、自社のニーズに合わせてAIをカスタマイズすることに注力すべきなんです。

ケネディ:

つまり、AIを「作る」ことから「活用する」ことへと焦点が移っているのですね。

宮本:

その通りです。ここで重要なのが「AIエクスプレイナー」の存在です。彼らは汎用AIとビジネス課題の橋渡しを担います。すべての企業がAI研究所になる必要はなく、AIを現場で実装・拡張できる人材を確保することが大切なんです。

ケネディ:

つまり、製薬企業はAIエンジニアだけでなく、リーダー、エクスプレイナー、サステイナーをバランスよく採用すべきということですね。

宮本:

その通りです。AIリーダーは変革を推進し、エクスプレイナーは業界ニーズに合わせてAIを調整し、サステイナーは倫理性と信頼性を担保します。この3者が揃ってこそ、スケーラブルで責任あるAI戦略が実現します。

ケネディ:

つまり、真の課題はAIを導入することではなく、「AIに対応できる組織を構築すること」なんですね。

宮本:

その通りです。AIの成功は、最先端のアルゴリズムを持つことではなく、AIを意思決定や業務プロセス、ビジネス戦略に自然に組み込むことにかかっています。


AIが製薬業界を大きく変えつつある今、企業はテクノロジーだけでなく、「人材」にも目を向ける必要があります。成功のカギは、AIを日々の意思決定に自然に組み込み、チームを戦略的に構成し、倫理的かつスケーラブルで、実効性のある形で導入していくことにあります。 AIリーダーが戦略を牽引し、エクスプレイナーがビジネスニーズに合わせてAIを適応させ、サステイナーがガバナンスを担うことで、製薬企業はAIの可能性を最大限に引き出しながら、制御されない自動化によるリスクを回避することができます。

AIを活用してコマーシャルの人材をいかに底上げするか

寄稿者

アダム・ケネディ | TSP K.K.、APACエグゼクティブサーチ、バイスプレジデント

宮本繁人 | APACデジタルソリューション、バイスプレジデント

Interested in Syneos Health?