微信扫码
与创始人交个朋友
我要投稿
以ChatGPT为代表的生成式人工智能(GAI)的出现引发了学术界和实务界的广泛讨论。在Google scholar中搜索“生成式人工智能”和“商业”或“管理”,可以搜索出约1740个结果,学者们已经探究了其对商业和管理领域的潜在影响。但是在这愈加广泛的观点产生的同时,很多观点往往是推测性的,缺乏坚实的理论基础,因此对于解释GAI带来的独特影响和需求方面迫切需要完善旧的理论甚至发展新的理论。基于此,British Journal of Management (BJM)于2024年第1期刊登了18位商业与管理领域杰出学者关于生成式人工智能的理论驱动视角的探讨,并从7个方面提供了相关见解(参考文献见文末)。本期就一同来看看学者们的观点吧。
1
重构生成式人工智能时代的职场关系
Shuang Ren, Riikka M. Sarala, Paul Hibbert
见解1:在生成式人工智能广泛应用的职场中,工作和结果是动态的、不断涌现的,而不是给定的。人们应该将生成式人工智能视为一个construction,它的功能和效果并不是预先确定的,而是由人们的决策和利用方式所塑造。因此需要对当前和未来时代的内部事物的关系进行联系,再将其在GAI充斥的工作场所中的运作结果作为现象呈现出来。
见解2:GAI充斥的工作场所中的关系社会活动应当被意识到,更加强调情境的重要性。情境是一个广泛的概念,包括对过去技术想象的分析以及当前有争议的技术的审视和随时间推移的制度等因素,而非片面研究GAI,应当将其置于现在和未来发展的复杂性之中。
见解3:新知识和未知问题在人类-GAI团队中涌现,破坏传统团队工作形式。如果GAI融入我们的日常工作,那么应该如何定义“团队”,因为GAI并不具备情感、欲望和责任等。在进行文献综述、数据转录等工作时不要仅仅依赖GAI生成原创性研究,而是利用有效“提示”来最大化GAI能力。
2
人工智能中的艺术:理解生成式人工智能的研究并超越
Paolo Quattrone, Tammar Zilber, Renate Meyer
线索1:“人工”代表了生成式人工智能的功能与用途。我们想到某个产品时,总会在社交媒体页面看到与之相关的广告,这种预测令我们着迷。尽管有太多数据和智能信息可以利用,但未来无法预测,人工智能有助于构思而非预测未来,帮助我们激发想象力和创造力。
线索2:“智能”强调对不同状态之间灰色区域的探索。AI可以通过多种形式和模态来影响我们的判断力,并通过新技术(如智能手表)调动我们广泛使用的感官资源。
线索3:词根“leg-”代表了想象未来并重构过去。微软CEO Steve Ballmer在看到第一款iphone时质疑到“谁愿意花500美元买一个手机”,没有理解到技术的力量与复杂性,手机可以成为相机、电影院等,从否定到可能,从不存在到存在的转变是人工智能的核心。
3
随时间而变的有争议的想象:将生成式人工智能置于情境中
Niall G. MacKenzie, Stephanie Decker, Christina Lubinski
观点1:良好的历史实践需要过去和现在进行对话。当一项新技术出现时,关于它的好处的会被大张旗鼓宣传,对社会的破坏和担忧也同样如此,因此不同的想象者之间相互竞争,我们可以分析过去对现有技术的想象以更好地理解新技术的出现以及社会如何适应因此带来的变化。与之相关的想象无论好坏都发挥着重要作用,重要的是要认识其出现的背景和与之相关的承诺,提供适当的理论和概念视角来更好地理解他们。
观点2:历史分析并不能预测未来。好的和坏的想象是新技术发展的必要部分,我们需要考虑到GAI所处的经济和政治系统,并结合社会重要技术转变历史,学者们在进行理论化时需要将历史思维纳入对GAI的概念化中质疑那些有争议的想象。
4
组织团队中的生成式人工智能:管理内外的挑战和未来方向
Olivia Brown, David A. Ellis, Julie Gore
从理论角度看,团队通常被理解为由两个或两个以上人组成。当GAI被整合到组织结构和设计中时,应当考虑将其置于一个什么位置,被视为输入要素纳入团队构成中还是纳入到更广泛的由技术能力所涵盖的组织背景中?如果将GAI置于理论框架中,新的团队如何运作?如人机信任是高效团队的关键因素,如何探索AI成员与人类成员的相互信任?目前实证研究十分有限,可以通过观察性和访谈性研究提供对GAI感受的初步理解即管理者和员工对其纳入其中的见解。
从实践角度看,尽管Zoom这样的数字技术在组织中已经广泛应用,但我们对于GAI这样的技术如何使用以及如何改善或阻碍团队结果的理解十分有限,且使得技术驱动和人类驱动行为之间的界限变得模糊,管理学者需要考虑在团队中研究GAI的方法,并借鉴其他学科的创新实践,通过实验性和观察性研究以及实践中获取数据进行三角验证。
从伦理角度看,OBHRM领域对于人工智能的危险性猜测在学者和从业者间引起了很多争议。但尽管如此,未来实践中其使用可能会和电子邮件一样频繁,一些人认为是一个很好的补充,但有可能在现实中带来伦理挑战,ChatGPT等类似的系统建立在文本学习的基础上,其建立在现有的社会偏见上,技术层面上对其工作原理还存在许多知识空白。因此我们必须确保这些人工智能系统的透明度,并使它们得到负责任的应用,当前的理论、方法和道德探索还远远没有定论。
5
人工智能时代的专业素养:理论启示
Daniel Muzio, James Faulconbridge
观点1:专业素养作为一种工作组织原则。专业素养被定义为具有高度自主和自由裁量权,消费者无法定义个人需求也无法轻易质疑,如医生和患者,律师和客户。
观点2:专业素养变化的轨迹和影响。过去20年AI取代了部分技术岗位,未来的发展可能涉及技术解决方案的变化。将价值从专业人员转移到非专业人员的操作系统,消费者越来越有能力直接使用技术解决方案满足自己需求,AI需要我们更新现有的专业和社会学理论概念。
观点3:避免确定性思维。技术只是变革故事的一小部分。生成式AI还会涉及相关伦理和政治问题、数据安全问题、知识产权问题等。这会使得专业人员可能抵制技术的采用。此外,技术对于某些东西不可取代,一旦做出不当行为谁将负责也会成为问题。
6
生成式人工智能兴起之后关系知识和认知责任更加重要
Gazi Islam, Michelle Greenwood
科学的产生建立在矛盾和不稳定的关系之上,目前学术同行评审和期刊出版系统就是采取这种部分联系和远程评估系统演变而来,既需要持续进行互动,又需要在陌生人之间进行评判,保持一种近距离与远距离之间的平衡。但这种我们所传承下来的方式正在受到新技术的质疑。如ChatGPT,它几乎可以替代知识生产的每个环节,关系网络及其构成的参与者既改变了知识生产方式,也改变了其责任性质。
研究成果:行动者和知识产品并不存在于关系之前,而是通过关系形成,从而产生知识。BJM的数万篇论文也是通过相互关联且稳定的实体相互影响而存在。LLMs(大语言模型)引入管理研究的网络中可能会颠覆广泛的生态系统。例如在文本生成方面利用大量未指定的数据源生成文本,比传统研究实践更加不透明,让知识变得来源不可追溯,从而引发当前期刊实践中学术所有权与问责制度的可行性问题讨论。此外,在介入研究人员的思维过程、分析风格和语言修辞等方面,使得风格方面相对同质化的学术惯例增强。
认知责任:对学术产出的影响过程对研究责任有着重要意义,对学术作品的评判直接受到LLMs影响,引发了关于是谁撰写、授权文本的过程,这些程序本身就是黑匣子,尽管整个学术界存在看不见的工作方式,但这种无法确定的劳动力会使得当前模型更加透明。
7
生成式人工智能和理论化
Robert M. Davison, M. N. Ravishankar
将文献整合,并觉察到突出的趋势。理论化是一项复杂的工作,研究人员可能依赖于对过去的会议,人类的大脑在某种程度上是有选择性的。GAI可以像研究助手一样发现最有用的文献来源等,甚至将信息以更容易理解的方式呈现给读者。
解决数据转录问题。将访谈内容进行转录编码时会存在失误,或是受访者为了表达简洁高效混用多种语言,生成式人工智能软件能准确识别不同语言词汇并结合文化背景进行恰当翻译。
数据分析时GAI具有快速分析大量数据的潜力,并与过去的文献进行比较产生多种选择帮助研究人员确立有前途的新思路,很难确定有趣的、反直觉的,取决于研究者的主观评估。GAI可以充当一个密探,GAI程序可以被训练并用来识别这些,从而构建支持性的论证,但真正的限制在于用户是否能够向系统提出“正确”的问题。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-11-22
大模型知识助手已成银行“标配”,打通知识应用“最后一公里”
2024-11-22
别再烧钱找企业顾问了!这个prompt5分钟帮你解决90%管理难题~
2024-11-18
Obsidian + NotebookLM:用 AI 深度挖掘笔记价值
2024-11-18
智能文档处理:自建还是购买?
2024-11-14
秘塔 AI 搜索+知识库:每家律所,每个律师,都可以拥有一个强大的 AI
2024-11-12
零基础用扣子(Coze)开发知识问答Agent
2024-11-12
如何构建高效知识库:目标、分类与维护全指南
2024-11-12
知乎直答上线“专业搜索”:让你的AI搜索自带5000万篇正版论文
2024-05-15
2024-04-24
2024-07-10
2024-06-23
2024-07-10
2024-08-04
2024-07-10
2024-06-19
2024-06-14
2024-05-29