玩护士睡老师勾搭女下属_欧美变态另类牲交ZOZO_亚洲国产欧美另类久久综合_午夜福利无码a级_亚洲综合一二三_天天干免费视频播放_先锋美女情趣网站在线观看_免费一级毛片全部免费播放瓯_天堂精品mv在线观看99_影音先锋影AV色资源站

Tensorboard可視化:基于LeNet5進(jìn)行面部表情分類
日期:2021.09.20   來(lái)源:湖南檢信智能
檢信ALLEMOTION

Tensorboard可視化:基于LeNet5進(jìn)行面部表情分類    

                            

無(wú)標(biāo)題.jpg

面部表情分類

    面部表情是面部肌肉的一個(gè)或多個(gè)動(dòng)作或狀態(tài)的結(jié)果。這些運(yùn)動(dòng)表達(dá)了個(gè)體對(duì)觀察者的情緒狀態(tài)。面部表情是非語(yǔ)言交際的一種形式。它是表達(dá)人類之間的社會(huì)信息的主要手段,不過(guò)也發(fā)生在大多數(shù)其他哺乳動(dòng)物和其他一些動(dòng)物物種中。人類的面部表情至少有21種,除了常見(jiàn)的高興、吃驚、悲傷、憤怒、厭惡和恐懼6種,還有驚喜(高興+吃驚)、悲憤(悲傷+憤怒)等15種可被區(qū)分的復(fù)合表情。 

    面部表情識(shí)別技術(shù)主要的應(yīng)用領(lǐng)域包括人機(jī)交互、智能控制、安全、醫(yī)療、通信等領(lǐng)域。

網(wǎng)絡(luò)架構(gòu)

    LeNet-5出自論文Gradient-Based Learning Applied to Document Recognition,是一種用于手寫(xiě)體字符識(shí)別的非常高效的卷積神經(jīng)網(wǎng)絡(luò)。LeNet5的網(wǎng)絡(luò)架構(gòu)如下:

    但是因?yàn)槲覀円龅氖敲娌勘砬榉诸悾褻K+數(shù)據(jù)集樣本大小是48*48,因此需要對(duì)LeNet5網(wǎng)絡(luò)進(jìn)行微調(diào)。網(wǎng)絡(luò)架構(gòu)如下:

image.png

    網(wǎng)絡(luò)結(jié)構(gòu)如下:

layer.jpg

計(jì)算圖如下:

graph.jpg

代碼實(shí)現(xiàn)

預(yù)處理

    數(shù)據(jù)集加載,并進(jìn)行預(yù)處理,同時(shí)將測(cè)試集的前225張樣本拼接成15張*15張的大圖片,用于Tensorboard可視化。

%matplotlib inline
import matplotlib.pyplot as plt
import os
import cv2
import numpy as np
from tensorflow import name_scope as namespace
from tensorflow.contrib.tensorboard.plugins import projector
 
NUM_PIC_SHOW=225
base_filedir='D:/CV/datasets/facial_exp/CK+'
 
dict_str2int={'anger':0,'contempt':1,'disgust':2,'fear':3,'happy':4,'sadness':5,'surprise':6}
 
labels=[]
data=[]
 
#讀取圖片并將其保存至data
for expdir in os.listdir(base_filedir):
    base_expdir=os.path.join(base_filedir,expdir)
    for name in os.listdir(base_expdir):
        labels.append(dict_str2int[expdir])
        path=os.path.join(base_expdir,name)
        path=path.replace('\\','/') #將\替換為/
        img = cv2.imread(path,0)
        data.append(img)
 
data=np.array(data)
labels=np.array(labels)
 
#將data打亂
permutation = np.random.permutation(data.shape[0])
data = data[permutation,:,:]
labels = labels[permutation]
 
#取前225個(gè)圖片拼成一張大圖片,用于tensorboard可視化
img_set=data[:NUM_PIC_SHOW]#前225的數(shù)據(jù)用于顯示
label_set=labels[:NUM_PIC_SHOW]
big_pic=None
index=0
for row in range(15):
    row_vector=img_set[index]
    index+=1
    for col in range(1,15):
        img=img_set[index]
        row_vector=np.hstack([row_vector,img])
        index+=1
    if(row==0):
        big_pic=row_vector
    else:
        big_pic=np.vstack([big_pic,row_vector])
 
plt.imshow(big_pic, cmap='gray')
plt.show()
 
#寫(xiě)入大圖片
cv2.imwrite("D:/Jupyter/TensorflowLearning/facial_expression_cnn_projector/data/faces.png",big_pic)
 
#轉(zhuǎn)換數(shù)據(jù)格式和形狀
data=data.reshape(-1,48*48).astype('float32')/255.0
labels=labels.astype('float32')
 
#0.3的比例測(cè)試
scale=0.3
test_data=data[:int(scale*data.shape[0])]
test_labels=labels[:int(scale*data.shape[0])]
train_data=data[int(scale*data.shape[0]):]
train_labels=labels[int(scale*data.shape[0]):]
 
print(train_data.shape)
print(train_labels.shape)
print(test_data.shape)
print(test_labels.shape)
 
#將標(biāo)簽one-hot
train_labels_onehot=np.zeros((train_labels.shape[0],7))
test_labels_onehot=np.zeros((test_labels.shape[0],7))
 
for i,label in enumerate(train_labels):
    train_labels_onehot[i,int(label)]=1
for i,label in enumerate(test_labels):
    test_labels_onehot[i,int(label)]=1
 
print(train_labels_onehot.shape)
print(test_labels_onehot.shape)
2.定義前向網(wǎng)絡(luò)

import tensorflow as tf
 
IMAGE_SIZE=48 #圖片大小
NUM_CHANNELS=1 #圖片通道
CONV1_SIZE=5 
CONV1_KERNEL_NUM=32
CONV2_SIZE=5
CONV2_KERNEL_NUM=64
FC_SIZE=512 #隱層大小
OUTPUT_NODE=7 #輸出大小
 
#參數(shù)概要,用于tensorboard實(shí)時(shí)查看訓(xùn)練過(guò)程
def variable_summaries(var):
    with namespace('summaries'):
        mean=tf.reduce_mean(var)
        tf.summary.scalar('mean',mean) #平均值
        with namespace('stddev'):
            stddev=tf.sqrt(tf.reduce_mean(tf.square(var-mean)))
        tf.summary.scalar('stddev',stddev) #標(biāo)準(zhǔn)差
        tf.summary.scalar('max',tf.reduce_max(var))#最大值
        tf.summary.scalar('min',tf.reduce_min(var))#最小值
        tf.summary.histogram('histogram',var)#直方圖
 
#獲取權(quán)重
def get_weight(shape,regularizer,name=None):
    w=tf.Variable(tf.truncated_normal(shape,stddev=0.1),name=name)
    #variable_summaries(w)
    if(regularizer!=None):
        tf.add_to_collection('losses',tf.contrib.layers.l2_regularizer(regularizer)(w))
    return w
 
#獲取偏置
def get_bias(shape,name=None):
    b=tf.Variable(tf.zeros(shape),name=name)
    #variable_summaries(b)
    return b
    
#定義前向網(wǎng)絡(luò)
def forward(x,train,regularizer):
    with tf.name_scope('layer'):
        #把輸入reshape
        with namespace('reshape_input'):
            x_reshaped=tf.reshape(x,[-1,IMAGE_SIZE,IMAGE_SIZE,NUM_CHANNELS])
        with tf.name_scope('conv1'):
            #定義兩個(gè)卷積層
            conv1_w=get_weight([CONV1_SIZE,CONV1_SIZE,NUM_CHANNELS,CONV1_KERNEL_NUM],regularizer=regularizer,name='conv1_w')
            conv1_b=get_bias([CONV1_KERNEL_NUM],name='conv1_b')
            conv1=tf.nn.conv2d(x_reshaped,conv1_w,strides=[1,1,1,1],padding='SAME')
            relu1=tf.nn.relu(tf.nn.bias_add(conv1,conv1_b))
            pool1=tf.nn.max_pool(relu1,ksize=[1,2,2,1],strides=[1,2,2,1],padding='SAME')
            
        with tf.name_scope('conv2'):
            conv2_w=get_weight([CONV2_SIZE,CONV2_SIZE,CONV1_KERNEL_NUM,CONV2_KERNEL_NUM],regularizer=regularizer,name='conv2_w')
            conv2_b=get_bias([CONV2_KERNEL_NUM],name='conv2_b')
            conv2=tf.nn.conv2d(pool1,conv2_w,strides=[1,1,1,1],padding='SAME')
            relu2=tf.nn.relu(tf.nn.bias_add(conv2,conv2_b)) #對(duì)卷機(jī)后的輸出添加偏置,并通過(guò)relu完成非線性激活
            pool2=tf.nn.max_pool(relu2,ksize=[1,2,2,1],strides=[1,2,2,1],padding='SAME')
            
        with tf.name_scope('flatten'):
            #定義reshape層
            pool_shape=pool2.get_shape().as_list() #獲得張量的維度并轉(zhuǎn)換為列表
            nodes=pool_shape[1]*pool_shape[2]*pool_shape[3] #[0]為batch值,[1][2][3]分別為長(zhǎng)寬和深度
            #print(type(pool2))
            reshaped=tf.reshape(pool2,[-1,nodes])
        
        with tf.name_scope('fc1'):
            #定義兩層全連接層
            fc1_w=get_weight([nodes,FC_SIZE],regularizer,name='fc1_w')
            fc1_b=get_bias([FC_SIZE],name='fc1_b')
            fc1=tf.nn.relu(tf.matmul(reshaped,fc1_w)+fc1_b)
            if(train):
                fc1=tf.nn.dropout(fc1,0.5)
    
        with tf.name_scope('fc2'):
            fc2_w=get_weight([FC_SIZE,OUTPUT_NODE],regularizer,name='fc2_w')
            fc2_b=get_bias([OUTPUT_NODE],name='fc2_b')
            y=tf.matmul(fc1,fc2_w)+fc2_b
    return y
3.定義反向傳播 ,可視化設(shè)置,并進(jìn)行訓(xùn)練,

BATCH_SIZE=100 #每次樣本數(shù)
LEARNING_RATE_BASE=0.005 #基本學(xué)習(xí)率
LEARNING_RATE_DECAY=0.99 #學(xué)習(xí)率衰減率
REGULARIZER=0.0001 #正則化系數(shù)
STEPS=2500 #訓(xùn)練次數(shù)
MOVING_AVERAGE_DECAY=0.99 #滑動(dòng)平均衰減系數(shù)
 
SAVE_PATH='.\\facial_expression_cnn_projector\\' #參數(shù)保存路徑
data_len=train_data.shape[0]
 
#將拼接為big_pic的測(cè)試樣本保存至標(biāo)量,用于訓(xùn)練過(guò)程可視化
pic_stack=tf.stack(test_data[:NUM_PIC_SHOW]) #stack拼接圖片張量
embedding=tf.Variable(pic_stack,trainable=False,name='embedding')
 
if(tf.gfile.Exists(os.path.join(SAVE_PATH,'projector'))==False):
    tf.gfile.MkDir(os.path.join(SAVE_PATH,'projector'))
 
#創(chuàng)建metadata文件,存放可視化圖片的label
if(tf.gfile.Exists(os.path.join(SAVE_PATH,'projector','metadata.tsv'))==True):
    tf.gfile.DeleteRecursively(os.path.join(SAVE_PATH,'projector'))
    tf.gfile.MkDir(os.path.join(SAVE_PATH,'projector'))
#將可視化圖片的標(biāo)簽寫(xiě)入
with open(os.path.join(SAVE_PATH,'projector','metadata.tsv'),'w') as f:
    for i in range(NUM_PIC_SHOW):
        f.write(str(label_set[i])+'\n')
 
with tf.Session() as sess:
    with tf.name_scope('input'):
        #x=tf.placeholder(tf.float32,[BATCH_SIZE,IMAGE_SIZE,IMAGE_SIZE,NUM_CHANNELS],name='x_input')
        x=tf.placeholder(tf.float32,[None,IMAGE_SIZE*IMAGE_SIZE*NUM_CHANNELS],name='x_input')
        y_=tf.placeholder(tf.float32,[None,OUTPUT_NODE],name='y_input')
    
    #reshape可視化圖片
    with namespace('input_reshape'):
        image_shaped_input=tf.reshape(x,[-1,IMAGE_SIZE,IMAGE_SIZE,1]) #把輸入reshape
        tf.summary.image('input',image_shaped_input,7) #添加到tensorboard中顯示
    
    y=forward(x,True,REGULARIZER)
    
    global_step=tf.Variable(0,trainable=False)
    with namespace('loss'):
        #softmax并計(jì)算交叉熵
        ce=tf.nn.sparse_softmax_cross_entropy_with_logits(logits=y,labels=tf.argmax(y_,1))
        cem=tf.reduce_mean(ce) #求每個(gè)樣本的交叉熵
        loss=cem+tf.add_n(tf.get_collection('losses'))
        tf.summary.scalar('loss',loss) #loss只有一個(gè)值,就直接輸出
    
    learning_rate=tf.train.exponential_decay(
        LEARNING_RATE_BASE,
        global_step,
        data_len/BATCH_SIZE,
        LEARNING_RATE_DECAY,
        staircase=True
    )
    with namespace('train'):
        train_step=tf.train.GradientDescentOptimizer(learning_rate).minimize(loss,global_step=global_step)
        ema=tf.train.ExponentialMovingAverage(MOVING_AVERAGE_DECAY,global_step)
        ema_op=ema.apply(tf.trainable_variables())
    
    with namespace('accuracy'):
        correct_prediction=tf.equal(tf.argmax(y,1),tf.argmax(y_,1))
        accuracy=tf.reduce_mean(tf.cast(correct_prediction,tf.float32))
        tf.summary.scalar('accuracy',accuracy)
    
    with tf.control_dependencies([train_step,ema_op]):
        train_op=tf.no_op(name='train')
    
    init_op=tf.global_variables_initializer()
    sess.run(init_op)
    
    #合并所有的summary
    merged=tf.summary.merge_all()
    #寫(xiě)入圖結(jié)構(gòu)
    writer=tf.summary.FileWriter(os.path.join(SAVE_PATH,'projector'),sess.graph)
    saver=tf.train.Saver() #保存網(wǎng)絡(luò)的模型
    #配置可視化
    config=projector.ProjectorConfig() #tensorboard配置對(duì)象
    embed=config.embeddings.add() #增加一項(xiàng)
    embed.tensor_name=embedding.name #指定可視化的變量
    embed.metadata_path='D:/Jupyter/TensorflowLearning/facial_expression_cnn_projector/projector/metadata.tsv' #路徑
    embed.sprite.image_path='D:/Jupyter/TensorflowLearning/facial_expression_cnn_projector/data/faces.png' 
    embed.sprite.single_image_dim.extend([IMAGE_SIZE,IMAGE_SIZE])#可視化圖片大小
    projector.visualize_embeddings(writer,config)
    #斷點(diǎn)續(xù)訓(xùn)
    #ckpt=tf.train.get_checkpoint_state(MODEL_SAVE_PATH)
    #if(ckpt and ckpt.model_checkpoint_path):
    #    saver.restore(sess,ckpt.model_checkpoint_path)
    for i in range(STEPS):
        run_option=tf.RunOptions(trace_level=tf.RunOptions.FULL_TRACE)
        run_metadata=tf.RunMetadata()
        start=(i*BATCH_SIZE)%(data_len-BATCH_SIZE)
        end=start+BATCH_SIZE
        summary,_,loss_value,step=sess.run([merged,train_op,loss,global_step],
                                           feed_dict={x:train_data[start:end],y_:train_labels_onehot[start:end]},
                                           options=run_option,
                                           run_metadata=run_metadata)
        writer.add_run_metadata(run_metadata,'step%03d'%i)
        writer.add_summary(summary,i)#寫(xiě)summary和i到文件
        if(i%100==0):
            acc=sess.run(accuracy,feed_dict={x:test_data,y_:test_labels_onehot})
            print('%d %g'%(step,loss_value))
            print('acc:%f'%(acc))
            saver.save(sess,os.path.join(SAVE_PATH,'projector','model'),global_step=global_step)
    writer.close()

可視化訓(xùn)練過(guò)程

acc_loss.jpg

    執(zhí)行上面的代碼,打開(kāi)tensorboard,可以看到訓(xùn)練精度和交叉熵?fù)p失如下:

    由于只有六百多的訓(xùn)練樣本,故得到曲線抖動(dòng)很大,訓(xùn)練精度大概在百分之八九十多浮動(dòng),測(cè)試精度在百分之七八十浮動(dòng),可見(jiàn)精度不高。下面使用Tensorboard將訓(xùn)練過(guò)程可視化(圖片是用Power Point錄頻 然后用迅雷應(yīng)用截取gif得到的):

   

————————————————
版權(quán)聲明:本文為CSDN博主「陳建驅(qū)」的原創(chuàng)文章,遵循 CC 4.0 BY-SA 版權(quán)協(xié)議,轉(zhuǎn)載請(qǐng)附上原文出處鏈接及本聲明。


相關(guān)推薦
  • 檢信智能圓滿完成第84屆中國(guó)教育裝備展示會(huì)的參展工作
    檢信智能圓滿完成第84屆中國(guó)教育裝備展示會(huì)的參展工作 第84屆中國(guó)教育裝備展示會(huì)于2024年10月25日至27日在昆明滇池國(guó)際會(huì)展中心舉辦,本次展示會(huì)全面展示了科技創(chuàng)新成果在學(xué)前教育、基礎(chǔ)教育、職業(yè)教育、特殊教育和高等教育領(lǐng)域的應(yīng)用,包括實(shí)驗(yàn)室設(shè)備、信息化設(shè)備及教學(xué)軟件、功能/學(xué)科教室設(shè)備,AI心理測(cè)評(píng)、音體美設(shè)備等,涵蓋教育領(lǐng)域各個(gè)應(yīng)用場(chǎng)景。參展的國(guó)家級(jí)高新技術(shù)企業(yè)有255家,占參展企業(yè)總數(shù)的33%。 檢信ALLEMOTION 多維度心理情緒測(cè)評(píng)系統(tǒng)依托機(jī)器紅外視覺(jué)識(shí)別技術(shù)采集人臉視頻數(shù)據(jù),結(jié)合心理計(jì)算大模型及深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)架構(gòu),預(yù)測(cè)篩查學(xué)生心理健康預(yù)警及建立學(xué)生心理健康檔案管理系統(tǒng)。通過(guò)本次展會(huì)與廣大客戶群體深入交流學(xué)習(xí),獲得了很多用戶意見(jiàn)及認(rèn)同,對(duì)我們檢信品牌AI心理情緒識(shí)別具有很大的價(jià)值與作用。 湖南檢信智能科技有限公司成立于2016年,是一家專注于語(yǔ)音情緒識(shí)別,人臉表情識(shí)別,面篩情緒識(shí)別,眼動(dòng)情緒識(shí)別等核心自主知識(shí)產(chǎn)權(quán)技術(shù)開(kāi)發(fā)的人工智能型企業(yè),并結(jié)合湘雅醫(yī)學(xué)院心理專家團(tuán)隊(duì)心理情緒分類模型,首創(chuàng)檢信 Allemotion OS心理情緒開(kāi)發(fā)平臺(tái), 應(yīng)用開(kāi)發(fā)有多維度AI心理測(cè)評(píng)系統(tǒng)、崗前安全評(píng)測(cè)系統(tǒng)和心理意圖分析系統(tǒng)等主導(dǎo)產(chǎn)品。 檢信智能聚焦于心理情緒技術(shù)的開(kāi)發(fā)與應(yīng)用,經(jīng)過(guò)8年的企業(yè)創(chuàng)新發(fā)展歷程,累計(jì)申請(qǐng)國(guó)家發(fā)明專利17項(xiàng),2019年獲得武器裝備質(zhì)量管理體系認(rèn)證,2021年獲得國(guó)防科大國(guó)科平臺(tái)優(yōu)秀創(chuàng)新獎(jiǎng),2022年非接觸式無(wú)創(chuàng)傷心理情緒監(jiān)測(cè)核心技術(shù)榮獲國(guó)家科技部發(fā)明創(chuàng)新創(chuàng)業(yè)成果二等獎(jiǎng),2023年榮獲國(guó)家高新技術(shù)企業(yè)。
    2024-10-31
  • 中國(guó)心理學(xué)會(huì)心理測(cè)量專業(yè)委員會(huì)2024年學(xué)術(shù)年會(huì)第一輪通知
    中國(guó)心理學(xué)會(huì)心理測(cè)量專業(yè)委員會(huì)2024年學(xué)術(shù)年會(huì)第一輪通知心理測(cè)量專委會(huì)中國(guó)心理學(xué)會(huì)2024年10月21日 09:01北京在人工智能時(shí)代,心理測(cè)量與測(cè)驗(yàn)領(lǐng)域歷經(jīng)了顯著的變革和發(fā)展。人工智能技術(shù)(如機(jī)器學(xué)習(xí)、大數(shù)據(jù)分析等)已經(jīng)被廣泛用于心理測(cè)量指標(biāo)的開(kāi)發(fā)、心理測(cè)驗(yàn)工具的研制及優(yōu)化。人工智能在心理測(cè)量與測(cè)驗(yàn)領(lǐng)域的應(yīng)用,不僅提高了心理測(cè)量與測(cè)驗(yàn)的準(zhǔn)確性和效率,還為心理測(cè)量與測(cè)驗(yàn)的創(chuàng)新和轉(zhuǎn)型提供了新的可能性。中國(guó)心理學(xué)會(huì)心理測(cè)量專業(yè)委員會(huì)2024年學(xué)術(shù)年會(huì)定于2024年12月13日至12月15日在貴州省貴陽(yáng)市召開(kāi)。本次學(xué)術(shù)年會(huì)的主題為“人工智能時(shí)代的心理測(cè)量與測(cè)驗(yàn)”,會(huì)議將重點(diǎn)探討人工智能時(shí)代下心理測(cè)量與測(cè)驗(yàn)的新趨勢(shì)、新動(dòng)向和新發(fā)展。大會(huì)將邀請(qǐng)心理學(xué)、教育學(xué)、統(tǒng)計(jì)學(xué)、計(jì)算機(jī)科學(xué)等領(lǐng)域的專家做大會(huì)主旨報(bào)告,系統(tǒng)介紹心理測(cè)量與測(cè)驗(yàn)的前沿方法、技術(shù)及應(yīng)用成果。熱忱歡迎各位學(xué)界同仁和研究生前來(lái)參會(huì)。一會(huì)議主題人工智能時(shí)代的心理測(cè)量與測(cè)驗(yàn)二會(huì)議組織機(jī)構(gòu)主辦單位:中國(guó)心理學(xué)會(huì)心理測(cè)量專業(yè)委員會(huì)、貴州師范大學(xué)承辦單位:貴州師范大學(xué)心理學(xué)院協(xié)辦單位:凱里學(xué)院、貴州省社會(huì)心理學(xué)學(xué)會(huì)顧問(wèn):車(chē)宏生、余嘉元、戴海琦大會(huì)主席:趙守盈學(xué)術(shù)委員會(huì):張敏強(qiáng)(主任)、甘怡群(副主任)、董圣鴻、傅根躍、王力、黎堅(jiān)、曾平飛、涂東波、駱?lè)浇M織委員會(huì):方平(主任)、徐建平(副主任)、羅崢、卞冉、陳海平、程超、杜林致、李英武、李中權(quán)、彭恒利、孫健敏、董長(zhǎng)江、王蕾、肖瑋、謝晶、閆鞏固、張穎執(zhí)行委員會(huì):羅禹(主任)、陳維、羅杰、程剛、曾練平、高旭亮、劉國(guó)慶、趙鵬娟、許爽、裴子釗、姚成奎三會(huì)議時(shí)間、地點(diǎn)和日程安排1.會(huì)議時(shí)間:2024年12月13日至12月15日。13日全天報(bào)到,14-15日正式會(huì)議。2.會(huì)議地點(diǎn):貴州省貴安新區(qū)花溪大學(xué)城貴州師范大學(xué)東校區(qū)。3.會(huì)議日程:日程安排簡(jiǎn)表見(jiàn)附件,具體日程在第二輪通知中公布。四論文投稿本次年會(huì)設(shè)主旨報(bào)告、分組報(bào)告、研究生論壇等環(huán)節(jié),歡迎國(guó)內(nèi)外專家學(xué)者、同學(xué)及各界人士踴躍投稿。1.投稿截止日期:2024年11月30日。2.投稿提交方式:會(huì)議摘要請(qǐng)發(fā)送至郵箱[email protected]。提交時(shí)郵件主題及投稿文檔請(qǐng)命名為“×××(第一作者姓名)參加心理測(cè)量專業(yè)委員會(huì)2024年學(xué)術(shù)會(huì)議摘要”。3.摘要寫(xiě)作格式要求如下:(1)語(yǔ)言為中文或英文,中文用宋體小四號(hào)字,1.5倍行距;英文用Time New Roman 字體小四號(hào)字,不超過(guò)800字。1.5倍行距。(2)論文摘要內(nèi)容要求包括論文題目、作者姓名、作者單位全稱、電子郵箱地址、聯(lián)系電話、摘要全文(其中,關(guān)鍵詞3~6個(gè),之間用逗號(hào)分開(kāi))。五會(huì)議注冊(cè)繳費(fèi)1.會(huì)議注冊(cè)費(fèi)標(biāo)準(zhǔn):參會(huì)代表1000元,中國(guó)心理學(xué)會(huì)在冊(cè)普通會(huì)員800元,在讀全日制學(xué)生(憑學(xué)生證)500元,中國(guó)心理學(xué)會(huì)在冊(cè)學(xué)生會(huì)員400元。2.本次會(huì)議由中國(guó)心理學(xué)會(huì)收費(fèi)并開(kāi)具發(fā)票,具體繳納方式在第二輪通知中公布。3.參會(huì)代表在會(huì)議期間的交通費(fèi)和住宿費(fèi)均自理。六參展單位邀請(qǐng)誠(chéng)邀相關(guān)學(xué)術(shù)界與產(chǎn)業(yè)界人士參加本次會(huì)議,熱忱歡迎相關(guān)企業(yè)和研發(fā)機(jī)構(gòu)參會(huì),共同推動(dòng)心理測(cè)量與測(cè)驗(yàn)的研究及應(yīng)用發(fā)展。請(qǐng)有意參展的單位于12月6日前發(fā)送郵件至[email protected]或聯(lián)系羅老師(電話:18786670954),郵件主題“心理測(cè)量與測(cè)驗(yàn)?zāi)陼?huì)參展”,請(qǐng)附單位基本情況介紹、相關(guān)業(yè)務(wù)說(shuō)明等。七會(huì)務(wù)組聯(lián)系方式陳維(貴州師范大學(xué)),15285959353羅杰(貴州師范大學(xué)),18786670954羅崢(專委會(huì)秘書(shū)處),13661135915中國(guó)心理學(xué)會(huì)心理測(cè)量專業(yè)委員會(huì)貴州師范大學(xué)2024年10月21日
    2024-10-21
  • 中國(guó)心理學(xué)會(huì)眼動(dòng)心理研究專業(yè)委員會(huì)2024年學(xué)術(shù)年會(huì)第一輪通知
    中國(guó)心理學(xué)會(huì)眼動(dòng)心理研究專業(yè)委員會(huì)2024年學(xué)術(shù)年會(huì)第一輪通知眼動(dòng)心理專委會(huì)中國(guó)心理學(xué)會(huì)2024年10月20日 09:02北京中國(guó)心理學(xué)會(huì)眼動(dòng)心理研究專業(yè)委員會(huì)2024年學(xué)術(shù)年會(huì)擬于2024年12月21日-22日在河南新鄉(xiāng)舉行。本次會(huì)議由中國(guó)心理學(xué)會(huì)眼動(dòng)心理研究專業(yè)委員會(huì)主辦,由河南師范大學(xué)教育學(xué)部承辦,河南省心理學(xué)會(huì)、河南大學(xué)心理學(xué)院、信陽(yáng)師范大學(xué)教育科學(xué)學(xué)院心理學(xué)系協(xié)辦。誠(chéng)摯邀請(qǐng)眼動(dòng)研究相關(guān)領(lǐng)域的科研工作者及社會(huì)各界人士參加本次大會(huì)。一、會(huì)議主題數(shù)智時(shí)代眼動(dòng)追蹤助力教育強(qiáng)國(guó)建設(shè)二、會(huì)議組織機(jī)構(gòu)主辦單位:中國(guó)心理學(xué)會(huì)眼動(dòng)心理研究專業(yè)委員會(huì)承辦單位:河南師范大學(xué)教育學(xué)部協(xié)辦單位:河南省心理學(xué)會(huì)、河南大學(xué)心理學(xué)院、信陽(yáng)師范大學(xué)教育科學(xué)學(xué)院心理學(xué)系主 席:白學(xué)軍(中國(guó)心理學(xué)會(huì)眼動(dòng)心理研究專業(yè)委員會(huì)主任)副主席:陳慶榮(中國(guó)心理學(xué)會(huì)眼動(dòng)心理研究專業(yè)委員會(huì)副主任)馬國(guó)杰(中國(guó)心理學(xué)會(huì)眼動(dòng)心理研究專業(yè)委員會(huì)副主任)閆國(guó)利(中國(guó)心理學(xué)會(huì)眼動(dòng)心理研究專業(yè)委員會(huì)副主任)秘 書(shū):張慢慢學(xué)術(shù)委員會(huì)(按姓氏拼音排序):陳黎靜、陳栩茜、陳中廷、崔磊、丁錦紅、高曉雷、高笑、高在峰、谷璜、顧俊娟、韓海賓、侯友、胡笑羽、賈磊、賈寧、江新、姜英杰、康廷虎、李興珊、梁菲菲、梁竹苑、林楠、劉萍萍、鹿士義、彭微微、屈青青、申薇、隋雪、譚瀅瀅、仝文、王福興、王敬欣、魏玲、聞素霞、吳巖、熊建萍、楊海波、楊錦綿、藥盼盼、臧傳麗、張錦坤、張慢慢、張運(yùn)紅、周鈞毅、周蕾會(huì)議籌備組:羅紅艷(組長(zhǎng))、陳勇(組長(zhǎng))、苗學(xué)杰、康淑霞、肖廣軍、衡書(shū)鵬、劉小先、全金梁、張曉陽(yáng)、熊建萍、孫文梅、張振、張煬、張利會(huì)、黨清秀、李雙雙、張瑞、李云云等三、會(huì)議時(shí)間、地點(diǎn)及日程安排1.會(huì)議時(shí)間:2024年12月21日至12月22日2.會(huì)議地點(diǎn):河南師范大學(xué)(河南省新鄉(xiāng)市建設(shè)東路46號(hào))3.主要日程:12月20日,全天報(bào)到。12月21-22日,開(kāi)幕式、大會(huì)報(bào)告、分組報(bào)告、閉幕式。四、會(huì)議征稿1.征文主題本次會(huì)議征文涉及借助眼動(dòng)技術(shù)開(kāi)展的相關(guān)研究,主題涵蓋但不限于眼動(dòng)控制機(jī)制、語(yǔ)言加工、場(chǎng)景知覺(jué)、社會(huì)發(fā)展、跨文化研究、特殊群體發(fā)展、人因工程、廣告/消費(fèi)心理、駕駛行為和運(yùn)動(dòng)心理等。邀請(qǐng)國(guó)內(nèi)外專家學(xué)者分享最新的研究成果,共同研討如何采用眼動(dòng)追蹤技術(shù)進(jìn)行理論與行為研究。2.投稿要求本次會(huì)議將設(shè)主題報(bào)告、分組報(bào)告等學(xué)術(shù)交流環(huán)節(jié),歡迎專家學(xué)者、老師、同學(xué)及各界人士踴躍投稿。會(huì)議摘要以電子文稿形式提交,具體寫(xiě)作格式要求如下:(1)會(huì)議摘要語(yǔ)言為中文或英文,以Microsoft Word編輯。中文用宋體5號(hào)字,不超過(guò)800字。英文用Times New Roman字體5號(hào)字,不超過(guò)800字。單倍行距。(2)摘要內(nèi)容要求包括:摘要題目、作者姓名、作者通訊地址(含單位全稱、院系部門(mén)、所在城市、郵政編碼)、電子郵箱地址、聯(lián)系電話、摘要全文(其中,關(guān)鍵詞3至6個(gè),之間用逗號(hào)分開(kāi))。掃描下方二維碼查看摘要格式。請(qǐng)將論文摘要電子word文檔發(fā)至?xí)?wù)組專用郵箱[email protected]。郵件主題及投稿文檔命名為“×××(第一作者姓名)參加眼動(dòng)專委會(huì)2024學(xué)術(shù)會(huì)議摘要”等字樣。投稿截止日期:2024年12月10日。3.歡迎專家學(xué)者組織會(huì)前/會(huì)后工作坊,有意組織工作坊的老師請(qǐng)與會(huì)務(wù)組聯(lián)系商議。五、會(huì)務(wù)事項(xiàng)1.參會(huì)人員歡迎中國(guó)心理學(xué)會(huì)眼動(dòng)心理研究專業(yè)委員會(huì)委員、中國(guó)心理學(xué)會(huì)其他分支機(jī)構(gòu)的專家學(xué)者、高等院校和研究機(jī)構(gòu)的教師、研究生以及社會(huì)各界人士等參會(huì)。2.注冊(cè)繳費(fèi)(1)會(huì)議注冊(cè)費(fèi)標(biāo)準(zhǔn):中國(guó)心理學(xué)會(huì)在冊(cè)普通會(huì)員1000元,非中國(guó)心理學(xué)會(huì)會(huì)員1200元,中國(guó)心理學(xué)會(huì)在冊(cè)學(xué)生會(huì)員500元,在讀全日制學(xué)生(憑學(xué)生證)600元。(2)本次會(huì)議由中國(guó)心理學(xué)會(huì)收費(fèi)并開(kāi)具發(fā)票,繳費(fèi)方式詳見(jiàn)第二輪通知。(3)參會(huì)者會(huì)議期間的往返交通費(fèi)和住宿費(fèi)自理。六、會(huì)務(wù)組聯(lián)系方式聯(lián)系人:劉小先(河南師范大學(xué)),13569853542張振(河南師范大學(xué)),17737355922張煬(河南師范大學(xué)),17537417138聯(lián)系郵箱:[email protected]中國(guó)心理學(xué)會(huì)眼動(dòng)心理研究專業(yè)委員會(huì)2024年10月20日
    2024-10-21