生成式人工智能(AI)引导

生成式人工智能(AI)引导

Definition and Purpose

人工智能指的是开发机器或软件的广泛领域,这些机器或软件可以执行通常需要人类智能的任务, including learning, reasoning, problem-solving, perception, language understanding, and more.

生成式人工智能(AI)是指能够创造新内容的人工智能技术的一个子集, data, 或者类似于人类产生的输出的信息. 这些技术利用机器学习模型和深度学习算法来分析和学习现有数据, 从而产生新的输出,可以包括, but are not limited to, text, images, audio, and video.

Scope of AI

本指导文件概述了道德规范, responsible, 以及在大学内安全使用人工智能(AI). 本指南旨在支持大学的教育使命, research, 和社区服务,同时保护所有利益相关者的诚信, privacy, and rights. It covers the use of AI tools, 包括但不限于机器学习模型, natural language processing systems, 以及基于人工智能的搜索和管理工具.

本页着重于对新大学生、教师和工作人员的指导. 它分为以下几个部分:

  1. Key Considerations
  2. Educator Guidance
  3. Student Guidance
  4. Practical AI Applications in Research
  5. Intellectual Property Guidelines
  6. International Travel Considerations
  7. Procurement and Contracting

Key Considerations

  • Privacy Violations: While powerful, 人工智能模型在接受个人数据训练时,可能会无意中泄露敏感信息, leading to privacy breaches. Additionally, 人工智能生成的合成数据有时可以通过逆向工程来识别个人, 强调需要谨慎和意识.
  • 知识产权及版权事宜: 生成式AI可以产生类似的内容,也可以直接复制已有的作品, 可能侵犯知识产权. 这可能导致在确定人工智能生成内容的所有权方面的法律纠纷和挑战.
  • Privacy Concerns: Generative AI, 它能够创建包括个人信息在内的真实合成数据, raises significant privacy concerns. This synthetic data, if not handled with caution, can be misused for identity theft, surveillance, or other malicious activities.
  • Security Risk: 生成式人工智能可以创建复杂的网络钓鱼骗局、深度伪造和其他形式的网络攻击. 检测和防御这些可能具有挑战性,带来重大的安全风险.
  • Bias: 人工智能模型可以继承它们所接受训练的数据中的偏见, 导致不公平或歧视性结果的.
  • Accuracy: 人工智能用户应该始终通过可信的第一方来源验证所创建内容的准确性. 用户对AI工具产生的内容、代码、图像和其他媒体负责. 他们应该警惕潜在的“幻觉”.g.(引用不存在的出版物或材料)或错误信息.
  • Code Development: 生成式人工智能可以帮助软件开发人员编写代码. However, 使用人工智能处理计算机代码时应谨慎,因为生成的代码可能不准确, lack security precautions, 并可能破坏软件系统. 所有的代码都应该被审查,最好是由多人审查.
  • Institutional Data: The acceptable use and institutional data governance 管理新大机构数据的政策. 这些政策禁止将机构数据上传到非新加坡管理大学认可的人工智能产品中. 此外,人工智能用户应该非常小心地将哪些数据上传到产品中.
  • Business Process: AI为业务流程改进和流程自动化提供了许多潜在的好处和效率. Tools, processes, 应当审查产出,以确定机构数据的可靠性, accuracy, consistency, and privacy.

Caution:

生成AI使用中的AI幻觉

When employing generative AI, 对被称为“人工智能幻觉”的现象保持警惕至关重要.“这指的是人工智能产生虚假或误导性信息的情况, 即使在训练有素的模型中也可能发生这种情况. To mitigate this risk:

  • Verification Protocol: 在使用人工智能生成的数据之前,始终与可信来源交叉验证.
  • Awareness and Training: 教育用户关于人工智能幻觉的迹象, 授权他们识别和质疑不合理的产出.
  • Limit Use for Critical Tasks: 在高风险的情况下,避免完全依赖人工智能进行决策,因为错误的信息可能会导致严重的后果.
  • Iterative Review: 实施涉及人工智能输出和人工监督的多阶段审查流程,以确保准确性和可靠性.

这种谨慎对于维护使用人工智能工具的学术工作的完整性和可靠性是不可或缺的.

Recommended Do and Don't

以下是在考虑生成人工智能工具和大学业务订阅时应该做和不应该做的事情.

  • DO 配合对新的人工智能工具和未经OIT批准的现有工具进行风险审查.
  • DO 定期审查和遵守人工智能指导和关键数据政策(例如.e., information security and data governance).
  • DO 确保供应商合同条款符合安全和负责任的人工智能治理.
  • DO 立即向OIT报告任何潜在的数据事故或泄露.
  • DON'T 将任何敏感、受保护、受监管或机密数据输入AI工具.
  • DON'T 假设公共数据没有知识产权.
  • DON'T 购买或订阅人工智能工具 NOT been fully reviewed by OIT.

Generative AI & Related News

    Read More