本学における生成系人工知能の活用について
最近、ChatGPTを始めとする生成系AIサービスが公開されています。
これらのAIは正しく活用すれば非常に強力なツールになります。本学でも学内業務で活用しています。
しかし、諸刃の剣であるため使い方を間違えるとさまざまな弊害を引き起こしかねません。特に教育の場やアカデミックな場では慎重な取り扱いが必要です。
学生の皆さんは以下の内容を遵守してください。
・AIはあくまで補助してくれる他人です。あなたの成果物はあなたが作成する必要があります。
例えば、レポートの作成のための情報収集段階で友人と協力することは場合によっては問題ありませんが、友人に作成してもらったレポートをそのまま提出することは不正です。同様にAIを情報収集に活用することは場合によっては問題ありませんが、AIが書いたレポートをそのまま提出することは不適切です。
自分の成果物に対してAIの活用がどの程度まで認められるかは人間に置き換えてどの程度まで他者の協力が認められるかで考えてください。
授業の担当教員から指示がある場合はそちらに従ってください。
・AIはそれっぽい結果を出力しますが、間違います。
大規模言語モデルに基づいたAIはそれっぽい回答を言語的な破綻なく堂々と出力することが得意です。そのため正しいことを回答しているように感じられます。しかし、それが正しいかは保証されません。完全なデタラメを架空の出典付きで流暢に回答することもあります。そのため、AIの回答が正しいかどうかを人力で念入りに確認したり調べる必要があります。
GPT-4などより精度の高いものも出てきていますが、それでも間違うことはありますので油断せず確認しましょう。
人力で調べて正しさの確認は必須ですが、その前にデタラメを出力している可能性に気づく簡単な方法として違うセッションで同じ回答が再現するかを見るといった方法もあります。
・AIの活用によって受けた不利益は使った人間の責任です。
前述のようにAIは間違った回答をすることもありますし、思わぬ不利益が生じることがあります。
AIはただの道具ですので利用した結果は全て利用した人の責任です。
・機密情報の取り扱いに注意
一般的なAIサービスではAIとやり取りした情報は逐一サーバーに送信されます。うっかり機密情報を送ってしまうと、第三者(AIサービス提供者)のサーバーにその情報が入ってしまうことになります。
また機密情報をAIが学習してしまい、赤の他人への回答で再現されてしまう可能性もあります。
個人情報や重要な研究データをはじめ、公開してはいけない情報は一般のサービスには絶対送信しないでください。
この文章は学生の皆さんへの重要なお知らせですので全手動で作成しました。