概念の再構成に関する文献 & 概念
public.icon
LLMの科学研究への応用
Boiko, D., MacKnight, R., Kline, B., and Gomes, G., Autonomous chemical research with large language models. Nature, Vol. 624, pp. 570-8, 2023.2.
Singhal, K., Azizi, S., Tu, T., et al., Large language models encode clinical knowledge. Nature, Vol. 620, pp. 172-80, 2023.3.
Demszky, D., Yang, D., Yeager, D., et al., Using large language models in psychology. Nat Rev Psychol, Vol. 2, pp. 688–701, 2023.4.
Sartori, G., and Orru, G. Language models and psychological sciences. Front. Psychol. Vol. 14, 1279317, 2023.5.
Yang, T., Shi, T., Wan, F. et al., PsyCoT: Psychological Questionnaire as Powerful Chain-of-Thought for Personality Detection. arXiv, 2023.6.
LLMによるキャラクターの代替
Dilion, D., Tandon, N., Gu, Y., et al., Can AI language models replace human participants? Trends in Cognitive Sciences, Vol. 27 (7), pp. 597-600, 2023.7.
Santurkar, S., Durmus, E., Ldhak, F., et al., Whose Opinions Do Language Models Reflect? arXiv, 2023.8.
Kong, A., Zhao, S., Chen, H., et al., Better Zero-Shot Reasoning with Role-Play Prompting. arXiv, 2023.14.
Li, C., Leng, Z., Yan, C., et al., ChatHaruhi: Reviving Anime Character in Reality via Large Language Model. arXiv, 2023.15.
Argyle, L., Busby, E., Fulda, N., et al., Out of One, Many: Using Language Models to Simulate Human Samples. Political Analysis, Vol. 31(3), pp. 337-351, 2023.16.
Culter, A., & Condon, D.M. Deep lexical hypothesis: Identifying personality structure in natural language. Journal of Personality and Social Psychology, Vol. 125(1), pp. 173-97, 2023.17
Word Embedding & Representaiton
Mikolov, T., Chen, K., Corrado, G., et al., Efficient Estimation of Word Representations in Vector Space. arXiv, 2013.9.
Devlin, J., Chang, M., Lee, K. et al., BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. arXiv, 2018.10.
Reimers, N., and Gurevych, I. Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks. arXiv, 2019.11.
Cer, D., Yang, Y., Kong, S., et al. Universal Sentence Encoder. arXiv, 2018.
人間とLLMや言語モデルの比較
Kawakita, G., Zeleznikow-Johnston, A., Tsuchiya, N., et al., Comparing Color Similarity Structures between Humans and LLMs via Unsupervised Alignment. arXiv, 2023.18.
Loyola, P. Marrese-Taylor, E. and Hoyos-Idobro, A. Perceptual Structure in the Absence of Grounding for LLMs: The Impact of Abstractedness and Subjectivity in Color Language. arXiv, 2023.19.
Brinkmann, L., Baumann, F., Bonnefon, J., et al., Machine Culture. Nat Hum Behav, vol. 7, pp. 1855-68, 2023.20.
Wanger, S., and Wanger, D. Comparing clusterings: Karlsruhe: Universität Karlsruhe, Fakultät für Informatik, 2007.21.
Peeshkpour, P. and Hruschka, E., Large Language Models Sensitivity to The Order of Options in Multiple-Choice Questions. arXiv, 2023.
Cer, D., Yang, Y., Kong, S., et al. Universal Sentence Encoder. arXiv, 2018
言語と概念の共通性
心理学的妥当性
構成概念妥当性
弁別的妥当性
別の構成概念を測定していると考えられる検査との相関で示される妥当性
収束的妥当性
理論的に同じ構成概念を測定していると考えられる別の検査との相関で示される妥当性。 相関係数が高いほど妥当性が高い。
内容的妥当性
表面的妥当性
それが何を測定しているようであるかという点での妥当性
論理的妥当性
対象となる概念を測定しているのかの程度が、論理的な検証によって判断される
基準関連妥当性
判別的妥当性
明確な基準で分けれらた2群を、測定された尺度得点から区別できる
併存的妥当性
ほぼ同時に実施して得られた別の尺度との関連性の程度
予測的妥当性
開発した尺度で測定した後に、他の基準検査を実施し、両者の関連性の程度